Juridiskās nesaskaņas starp Ilonu Masku un OpenAI ir pāraugušas no publiskām vārdu pārmaiņām sociālajos tīklos par augstu likmju tiesas prāvas liecībām. Nesen publiskotajā 2026. gada februāra liecībā Masks izteica savu līdz šim provokatīvāko kritiku pret uzņēmumu, kura dibināšanā viņš palīdzēja, vēršoties pret OpenAI drošības rādītājiem un krasi salīdzinot tos ar savu mākslīgā intelekta uzņēmumu xAI.
Procesa laikā Masks apgalvoja, ka viņa ģeneratīvais MI, Grok, uztur augstāku drošības profilu salīdzinājumā ar ChatGPT. Viņš uzsvēra šo apgalvojumu ar pretrunīgu paziņojumu par MI mijiedarbības sekām reālajā pasaulē. “Neviens nav izdarījis pašnāvību Grok dēļ,” Masks norādīja lietas materiālos, “bet acīmredzot tas ir noticis ChatGPT dēļ.” Šī retorika iezīmē pavērsienu tiesvedības fokusā, pārejot no līgumstrīdiem uz nestabilo digitālās ētikas un garīgās veselības teritoriju.
Liecība ir daļa no plašākas juridiskās kampaņas, ko Masks uzsāka pret OpenAI un tā izpilddirektoru Semu Altmenu. Maskas argumentācijas galvenais punkts joprojām ir tas, ka OpenAI ir atteicies no savas sākotnējās bezpeļņas misijas — izstrādāt vispārīgo mākslīgo intelektu (AGI) visas cilvēces labā — par labu “slēgtā pirmkoda” peļņas dzinējam uzņēmumam Microsoft.
Tomēr šie pēdējie komentāri liecina, ka Masks mēģina pārdefinēt to, ko nozīmē “nākt par labu cilvēcei”. Pozicionējot OpenAI produktus kā potenciāli kaitīgus atsevišķiem lietotājiem, Masks pozicionē xAI ne tikai kā tehnoloģisku konkurentu, bet arī kā morālu alternatīvu. Viņš apgalvo, ka OpenAI “modrās” (woke) drošības barjeras patiesībā rada maldinošu vidi, turpretim Grok “pret-modrā” un patiesības meklēšanas pieeja ir pēc būtības drošāka, jo tā nemēģina manipulēt ar lietotāja realitātes uztveri.
Maskas atsauce uz pašnāvībām, šķiet, balstās uz pēdējo gadu traģisko ziņojumu sēriju, kuros iesaistīti MI tērzēšanas roboti. Vairākos skaļos gadījumos mirušo personu ģimenes ir apgalvojušas, ka ilgstoša, emocionāli piesātināta mijiedarbība ar MI modeļiem — tostarp tiem, ko izstrādājuši OpenAI un tādi konkurenti kā Character.ai — veicinājusi psiholoģisku ciešanu rašanos.
OpenAI ir konsekventi aizstāvējis savus drošības protokolus, norādot, ka ChatGPT ietver plašus filtrus, lai noteiktu pašnāvības domas un novirzītu lietotājus pie profesionālas palīdzības. Uzņēmums apgalvo, ka tā “Red Teaming” procesi ir vieni no stingrākajiem nozarē.
Turpretī Grok tika izstrādāts ar “dumpiniecisku garu”, lai atbildētu uz jautājumiem, no kuriem citi MI varētu izvairīties. Kritiķi apgalvo, ka šāds tradicionālās filtrēšanas trūkums faktiski varētu palielināt riskus, savukārt Masks apgalvo, ka caurskatāmība un “maksimāla patiesības meklēšana” ir vienīgie veidi, kā novērst to, ka MI kļūst par manipulējošu spēku.
| Funkcija | OpenAI (ChatGPT) | xAI (Grok) |
|---|---|---|
| Galvenais mērķis | Noderīgs, nekaitīgs un godīgs. | Maksimāla patiesības meklēšana un caurskatāmība. |
| Drošības mehānisms | Plašs RLHF (pastiprinātā mācīšanās no cilvēku atsauksmēm) un satura filtri. | Reāllaika piekļuve X (iepriekš Twitter) datiem un mazāk ideoloģisku ierobežojumu. |
| Filozofija | Paternālistiska drošība (aizskārumu/kaitējuma novēršana). | Libertāra drošība (neapstrādātas informācijas sniegšana). |
| Publiskā nostāja | AGI ir stingri jāregulē. | MI ir jāļauj teikt patiesību, lai tas būtu drošs. |
Juridiskie analītiķi pieļauj, ka Maskas koncentrēšanās uz drošību liecībā kalpo diviem mērķiem. Pirmkārt, tas ir mēģinājums graut OpenAI “sabiedrības labuma” aizstāvības pozīciju. Ja Masks spēs pierādīt, ka OpenAI pāreja uz peļņas modeli izraisīja drošības standartu degradāciju vai reālu kaitējumu cilvēkiem, tas stiprinās viņa apgalvojumu, ka uzņēmums ir pārkāpis savu dibināšanas līgumu.
Otrkārt, tas kalpo kā spēcīgs mārketinga rīks xAI. Pozicionējot Grok kā vienīgo “drošo” MI bīstamu alternatīvu vidū, Masks uzrunā specifisku lietotāju demogrāfisko grupu, kas ir skeptiska pret galvenajiem tehnoloģiju milžiem. Tomēr šī stratēģija nav bez riska. Izsakot tik kategoriskus apgalvojumus par Grok drošību, Masks aicina uz rūpīgu savas platformas darbības un iespējamo neparedzēto seku pārbaudi.
Kamēr nozares giganti cīnās tiesā, ikdienas lietotājiem pašiem jāorientējas MI drošības sarežģījumos. Neatkarīgi no tā, vai dodat priekšroku ChatGPT kūrētajai pieredzei vai Grok nefiltrētajai dabai, apsveriet sekojošo:
Šīs liecības publiskošana, visticamāk, izraisīs OpenAI juridisko pārstāvju reakciju, iespējams, ietverot pretprasības par xAI modeļu drošību. Tuvojoties tiesas datumam, tehnoloģiju nozare uzmanīgi vēro notiekošo. Rezultāts ne tikai noteiks OpenAI korporatīvās struktūras nākotni, bet varētu arī radīt juridisku precedentu tam, kā MI uzņēmumi tiek saukti pie atbildības par savu lietotāju rīcību reālajā pasaulē.
Pagaidām frontes līnijas ir skaidri novilktas: viena puse iestājas par drošību caur piesardzību un filtrēšanu, bet otra — par drošību caur caurskatāmību un neapstrādātiem datiem. Kā pierāda Maskas liecība, cīņa par AGI vairs nav tikai zinātniskas sacensības — tas ir juridisks un morāls karš.



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu