Die rechtlichen Spannungen zwischen Elon Musk und OpenAI haben sich von öffentlichen Wortgefechten in den sozialen Medien zu hochriskanten Gerichtsaussagen entwickelt. In einer neu veröffentlichten Zeugenaussage vom Februar 2026 äußerte Musk seine bisher provokanteste Kritik an dem von ihm mitbegründeten Unternehmen und nahm die Sicherheitsbilanz von OpenAI mit einem drastischen Vergleich zu seinem eigenen KI-Unternehmen, xAI, ins Visier.
Während des Verfahrens behauptete Musk, dass seine generative KI, Grok, ein überlegenes Sicherheitsprofil im Vergleich zu ChatGPT aufweise. Er unterstrich diese Behauptung mit einer kontroversen Aussage zu den realen Folgen von KI-Interaktionen. „Niemand hat wegen Grok Selbstmord begangen“, gab Musk in der Einreichung an, „aber anscheinend ist dies wegen ChatGPT geschehen.“ Diese Rhetorik markiert eine Verschiebung des Fokus im Rechtsstreit, weg von vertraglichen Streitigkeiten hin zum brisanten Terrain der digitalen Ethik und psychischen Gesundheit.
Die Zeugenaussage ist Teil einer umfassenderen Rechtskampagne, die Musk gegen OpenAI und dessen CEO Sam Altman eingeleitet hat. Der Kern von Musks Argumentation bleibt, dass OpenAI seine ursprüngliche gemeinnützige Mission – die Entwicklung künstlicher allgemeiner Intelligenz (AGI) zum Wohle der Menschheit – zugunsten einer „Closed-Source“-Profitmaschine für Microsoft aufgegeben hat.
Diese jüngsten Kommentare deuten jedoch darauf hin, dass Musk versucht, die Bedeutung von „zum Wohle der Menschheit“ neu zu definieren. Indem er die Produkte von OpenAI als potenziell schädlich für einzelne Nutzer darstellt, positioniert Musk xAI nicht nur als technologischen Konkurrenten, sondern als moralische Alternative. Er argumentiert, dass die „woken“ Schutzmaßnahmen von OpenAI tatsächlich ein täuschendes Umfeld schaffen, während Groks „anti-woker“, wahrheitssuchender Ansatz von Natur aus sicherer sei, da er nicht versuche, die Realitätswahrnehmung des Nutzers zu manipulieren.
Musks Verweis auf Suizide scheint sich auf eine Reihe tragischer Berichte aus den letzten Jahren über KI-Chatbots zu beziehen. In mehreren hochkarätigen Fällen haben Familien von Verstorbenen behauptet, dass langwierige, emotional aufgeladene Interaktionen mit KI-Modellen – einschließlich derer von OpenAI und Konkurrenten wie Character.ai – zu psychischer Belastung beigetragen haben.
OpenAI hat seine Sicherheitsprotokolle konsequent verteidigt und darauf hingewiesen, dass ChatGPT umfangreiche Filter enthält, um Suizidgedanken zu erkennen und Nutzer an professionelle Hilfe weiterzuleiten. Das Unternehmen betont, dass seine „Red Teaming“-Prozesse zu den strengsten der Branche gehören.
Im Gegensatz dazu wurde Grok mit einer „rebellischen Ader“ entworfen, um Fragen zu beantworten, denen andere KIs ausweichen könnten. Kritiker argumentieren, dass dieser Mangel an traditioneller Filterung die Risiken tatsächlich erhöhen könnte, während Musk behauptet, dass Transparenz und „maximale Wahrheitssuche“ die einzigen Wege seien, um zu verhindern, dass eine KI zu einer manipulativen Kraft wird.
| Merkmal | OpenAI (ChatGPT) | xAI (Grok) |
|---|---|---|
| Primäres Ziel | Hilfreich, harmlos und ehrlich. | Maximale Wahrheitssuche und Transparenz. |
| Sicherheitsmechanismus | Umfangreiches RLHF (Reinforcement Learning from Human Feedback) und Inhaltsfilter. | Echtzeitzugriff auf X (ehemals Twitter)-Daten und weniger ideologische Einschränkungen. |
| Philosophie | Paternalistische Sicherheit (Vermeidung von Beleidigung/Schaden). | Libertäre Sicherheit (Bereitstellung von Rohinformationen). |
| Öffentliche Haltung | AGI muss streng reguliert werden. | KI muss die Wahrheit sagen dürfen, um sicher zu sein. |
Rechtsexperten vermuten, dass Musks Fokus auf Sicherheit in der Zeugenaussage einem doppelten Zweck dient. Erstens versucht er, die Verteidigung von OpenAI hinsichtlich des „öffentlichen Nutzens“ zu untergraben. Wenn Musk beweisen kann, dass der Übergang von OpenAI zu einem gewinnorientierten Modell zu einer Verschlechterung der Sicherheitsstandards oder zu tatsächlichem menschlichem Schaden geführt hat, stärkt dies seine Behauptung, dass das Unternehmen gegen seine Gründungsvereinbarung verstoßen hat.
Zweitens dient es als mächtiges Marketinginstrument für xAI. Indem er Grok als die einzige „sichere“ KI in einer Landschaft gefährlicher Alternativen positioniert, spricht Musk eine spezifische Zielgruppe von Nutzern an, die gegenüber etablierten Tech-Giganten skeptisch sind. Diese Strategie ist jedoch nicht ohne Risiko. Indem er solch definitive Behauptungen über die Sicherheit von Grok aufstellt, lädt Musk zu einer intensiven Prüfung der Leistung seiner eigenen Plattform und des Potenzials für unbeabsichtigte Folgen ein.
Während die Giganten der Branche vor Gericht kämpfen, müssen die Nutzer die Komplexität der KI-Sicherheit allein bewältigen. Ob Sie nun das kuratierte Erlebnis von ChatGPT oder die ungefilterte Natur von Grok bevorzugen, beachten Sie Folgendes:
Die Veröffentlichung dieser Zeugenaussage wird wahrscheinlich eine Reaktion des Rechtsteams von OpenAI auslösen, die potenziell Gegenklagen bezüglich der Sicherheit von xAIs eigenen Modellen beinhalten könnte. Während der Verhandlungstermin näher rückt, beobachtet die Tech-Branche die Entwicklungen genau. Das Ergebnis wird nicht nur die Zukunft der Unternehmensstruktur von OpenAI bestimmen, sondern könnte auch einen rechtlichen Präzedenzfall dafür schaffen, wie KI-Unternehmen für die realen Handlungen ihrer Nutzer haftbar gemacht werden.
Vorerst sind die Fronten klar gezogen: Die eine Seite plädiert für Sicherheit durch Vorsicht und Filterung, während die andere Seite für Sicherheit durch Transparenz und Rohdaten argumentiert. Wie Musks Zeugenaussage beweist, ist das Streben nach AGI nicht mehr nur ein wissenschaftlicher Wettlauf – es ist ein rechtlicher und moralischer Krieg.



Unsere Ende-zu-Ende-verschlüsselte E-Mail- und Cloud-Speicherlösung bietet die leistungsfähigsten Mittel für den sicheren Datenaustausch und gewährleistet die Sicherheit und den Schutz Ihrer Daten.
/ Kostenloses Konto erstellen