Nozaru jaunumi

Masks saasina juridisko cīņu ar OpenAI: liecībā apgalvo, ka Grok drošības ziņā pārspēj ChatGPT

Ilons Masks jaunā liecībā uzbrūk OpenAI drošības rādītājiem, apgalvojot, ka Grok ir drošāks par ChatGPT. Izpētiet viņa apgalvojumu juridiskās un ētiskās sekas.
Linda Zola
Linda Zola
2026. gada 28. februāris
Masks saasina juridisko cīņu ar OpenAI: liecībā apgalvo, ka Grok drošības ziņā pārspēj ChatGPT

Juridiskās nesaskaņas starp Ilonu Masku un OpenAI ir pāraugušas no publiskām vārdu pārmaiņām sociālajos tīklos par augstu likmju tiesas prāvas liecībām. Nesen publiskotajā 2026. gada februāra liecībā Masks izteica savu līdz šim provokatīvāko kritiku pret uzņēmumu, kura dibināšanā viņš palīdzēja, vēršoties pret OpenAI drošības rādītājiem un krasi salīdzinot tos ar savu mākslīgā intelekta uzņēmumu xAI.

Procesa laikā Masks apgalvoja, ka viņa ģeneratīvais MI, Grok, uztur augstāku drošības profilu salīdzinājumā ar ChatGPT. Viņš uzsvēra šo apgalvojumu ar pretrunīgu paziņojumu par MI mijiedarbības sekām reālajā pasaulē. “Neviens nav izdarījis pašnāvību Grok dēļ,” Masks norādīja lietas materiālos, “bet acīmredzot tas ir noticis ChatGPT dēļ.” Šī retorika iezīmē pavērsienu tiesvedības fokusā, pārejot no līgumstrīdiem uz nestabilo digitālās ētikas un garīgās veselības teritoriju.

Konflikta būtība: Peļņa pret misiju

Liecība ir daļa no plašākas juridiskās kampaņas, ko Masks uzsāka pret OpenAI un tā izpilddirektoru Semu Altmenu. Maskas argumentācijas galvenais punkts joprojām ir tas, ka OpenAI ir atteicies no savas sākotnējās bezpeļņas misijas — izstrādāt vispārīgo mākslīgo intelektu (AGI) visas cilvēces labā — par labu “slēgtā pirmkoda” peļņas dzinējam uzņēmumam Microsoft.

Tomēr šie pēdējie komentāri liecina, ka Masks mēģina pārdefinēt to, ko nozīmē “nākt par labu cilvēcei”. Pozicionējot OpenAI produktus kā potenciāli kaitīgus atsevišķiem lietotājiem, Masks pozicionē xAI ne tikai kā tehnoloģisku konkurentu, bet arī kā morālu alternatīvu. Viņš apgalvo, ka OpenAI “modrās” (woke) drošības barjeras patiesībā rada maldinošu vidi, turpretim Grok “pret-modrā” un patiesības meklēšanas pieeja ir pēc būtības drošāka, jo tā nemēģina manipulēt ar lietotāja realitātes uztveri.

Drošības apgalvojumu analīze

Maskas atsauce uz pašnāvībām, šķiet, balstās uz pēdējo gadu traģisko ziņojumu sēriju, kuros iesaistīti MI tērzēšanas roboti. Vairākos skaļos gadījumos mirušo personu ģimenes ir apgalvojušas, ka ilgstoša, emocionāli piesātināta mijiedarbība ar MI modeļiem — tostarp tiem, ko izstrādājuši OpenAI un tādi konkurenti kā Character.ai — veicinājusi psiholoģisku ciešanu rašanos.

OpenAI ir konsekventi aizstāvējis savus drošības protokolus, norādot, ka ChatGPT ietver plašus filtrus, lai noteiktu pašnāvības domas un novirzītu lietotājus pie profesionālas palīdzības. Uzņēmums apgalvo, ka tā “Red Teaming” procesi ir vieni no stingrākajiem nozarē.

Turpretī Grok tika izstrādāts ar “dumpiniecisku garu”, lai atbildētu uz jautājumiem, no kuriem citi MI varētu izvairīties. Kritiķi apgalvo, ka šāds tradicionālās filtrēšanas trūkums faktiski varētu palielināt riskus, savukārt Masks apgalvo, ka caurskatāmība un “maksimāla patiesības meklēšana” ir vienīgie veidi, kā novērst to, ka MI kļūst par manipulējošu spēku.

Drošības filozofiju salīdzinājums

Funkcija OpenAI (ChatGPT) xAI (Grok)
Galvenais mērķis Noderīgs, nekaitīgs un godīgs. Maksimāla patiesības meklēšana un caurskatāmība.
Drošības mehānisms Plašs RLHF (pastiprinātā mācīšanās no cilvēku atsauksmēm) un satura filtri. Reāllaika piekļuve X (iepriekš Twitter) datiem un mazāk ideoloģisku ierobežojumu.
Filozofija Paternālistiska drošība (aizskārumu/kaitējuma novēršana). Libertāra drošība (neapstrādātas informācijas sniegšana).
Publiskā nostāja AGI ir stingri jāregulē. MI ir jāļauj teikt patiesību, lai tas būtu drošs.

Juridiskā stratēģija aiz retorikas

Juridiskie analītiķi pieļauj, ka Maskas koncentrēšanās uz drošību liecībā kalpo diviem mērķiem. Pirmkārt, tas ir mēģinājums graut OpenAI “sabiedrības labuma” aizstāvības pozīciju. Ja Masks spēs pierādīt, ka OpenAI pāreja uz peļņas modeli izraisīja drošības standartu degradāciju vai reālu kaitējumu cilvēkiem, tas stiprinās viņa apgalvojumu, ka uzņēmums ir pārkāpis savu dibināšanas līgumu.

Otrkārt, tas kalpo kā spēcīgs mārketinga rīks xAI. Pozicionējot Grok kā vienīgo “drošo” MI bīstamu alternatīvu vidū, Masks uzrunā specifisku lietotāju demogrāfisko grupu, kas ir skeptiska pret galvenajiem tehnoloģiju milžiem. Tomēr šī stratēģija nav bez riska. Izsakot tik kategoriskus apgalvojumus par Grok drošību, Masks aicina uz rūpīgu savas platformas darbības un iespējamo neparedzēto seku pārbaudi.

Praktiski ieteikumi MI lietotājiem

Kamēr nozares giganti cīnās tiesā, ikdienas lietotājiem pašiem jāorientējas MI drošības sarežģījumos. Neatkarīgi no tā, vai dodat priekšroku ChatGPT kūrētajai pieredzei vai Grok nefiltrētajai dabai, apsveriet sekojošo:

  • Saglabājiet emocionālo distanci: Atcerieties, ka MI modeļiem nav jūtu, apziņas vai patiesas empātijas. Tie ir sarežģīti modeļu saskaņošanas dzinēji.
  • Pārbaudiet sensitīvu informāciju: Nekad nepaļaujieties uz tērzēšanas robotu, lai saņemtu medicīnisku, juridisku vai psiholoģisku padomu. Vienmēr konsultējieties ar cilvēku — profesionāli.
  • Izmantojiet vecāku kontroli: Ja šos rīkus izmanto nepilngadīgie, pārliecinieties, ka drošības iestatījumi ir aktīvi un viņu mijiedarbība tiek uzraudzīta.
  • Ziņojiet par anomālijām: Ja tērzēšanas robots sniedz kaitīgu vai satraucošu saturu, izmantojiet iebūvētos ziņošanas rīkus, lai brīdinātu izstrādātājus.

Kas tālāk?

Šīs liecības publiskošana, visticamāk, izraisīs OpenAI juridisko pārstāvju reakciju, iespējams, ietverot pretprasības par xAI modeļu drošību. Tuvojoties tiesas datumam, tehnoloģiju nozare uzmanīgi vēro notiekošo. Rezultāts ne tikai noteiks OpenAI korporatīvās struktūras nākotni, bet varētu arī radīt juridisku precedentu tam, kā MI uzņēmumi tiek saukti pie atbildības par savu lietotāju rīcību reālajā pasaulē.

Pagaidām frontes līnijas ir skaidri novilktas: viena puse iestājas par drošību caur piesardzību un filtrēšanu, bet otra — par drošību caur caurskatāmību un neapstrādātiem datiem. Kā pierāda Maskas liecība, cīņa par AGI vairs nav tikai zinātniskas sacensības — tas ir juridisks un morāls karš.

Avoti

  • Court filings from the Superior Court of California, County of San Francisco.
  • Official xAI blog posts regarding Grok’s development and safety philosophy.
  • OpenAI’s published safety guidelines and Red Teaming reports.
  • Historical coverage of the Musk v. OpenAI lawsuit from Reuters and The Verge.
bg
bg
bg

Uz tikšanos otrā pusē.

Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.

/ Izveidot bezmaksas kontu