Ειδήσεις Βιομηχανίας

Ο Μασκ κλιμακώνει τη δικαστική διαμάχη με την OpenAI: Κατάθεση ισχυρίζεται ότι το Grok ξεπερνά το ChatGPT στην ασφάλεια

Ο Elon Musk επιτίθεται στο ιστορικό ασφαλείας της OpenAI σε μια νέα κατάθεση, ισχυριζόμενος ότι το Grok είναι ασφαλέστερο από το ChatGPT. Εξερευνήστε τις νομικές και ηθικές προεκτάσεις των ισχυρισμών του.
Linda Zola
Linda Zola
28 Φεβρουαρίου 2026
Ο Μασκ κλιμακώνει τη δικαστική διαμάχη με την OpenAI: Κατάθεση ισχυρίζεται ότι το Grok ξεπερνά το ChatGPT στην ασφάλεια

Η νομική τριβή μεταξύ του Elon Musk και της OpenAI έχει μεταβεί από τις δημόσιες αντιπαραθέσεις στα μέσα κοινωνικής δικτύωσης σε δικαστικές καταθέσεις υψηλού ρίσκου. Σε μια πρόσφατα αποσφραγισμένη κατάθεση από τον Φεβρουάριο του 2026, ο Musk εξαπέλυσε την πιο προκλητική του κριτική μέχρι σήμερα κατά της εταιρείας που βοήθησε να ιδρυθεί, στοχεύοντας το ιστορικό ασφάλειας της OpenAI με μια έντονη σύγκριση με το δικό του εγχείρημα AI, την xAI.

Κατά τη διάρκεια της διαδικασίας, ο Musk υποστήριξε ότι η παραγωγική του τεχνητή νοημοσύνη, το Grok, διατηρεί ένα ανώτερο προφίλ ασφάλειας σε σύγκριση με το ChatGPT. Τόνισε αυτόν τον ισχυρισμό με μια αμφιλεγόμενη δήλωση σχετικά με τις συνέπειες των αλληλεπιδράσεων με την AI στον πραγματικό κόσμο. «Κανείς δεν έχει αυτοκτονήσει εξαιτίας του Grok», δήλωσε ο Musk στην κατάθεση, «αλλά προφανώς έχουν αυτοκτονήσει εξαιτίας του ChatGPT». Αυτή η ρητορική σηματοδοτεί μια στροφή στην εστίαση της αγωγής, προχωρώντας πέρα από τις συμβατικές διαφορές στην ασταθή περιοχή της ψηφιακής ηθικής και της ψυχικής υγείας.

Ο πυρήνας της σύγκρουσης: Κέρδος έναντι Αποστολής

Η κατάθεση αποτελεί μέρος μιας ευρύτερης νομικής εκστρατείας που ξεκίνησε ο Musk κατά της OpenAI και του CEO της, Sam Altman. Η ουσία του επιχειρήματος του Musk παραμένει ότι η OpenAI εγκατέλειψε την αρχική της μη κερδοσκοπική αποστολή —την ανάπτυξη τεχνητής γενικής νοημοσύνης (AGI) προς όφελος της ανθρωπότητας— υπέρ μιας «κλειστού κώδικα» μηχανής κέρδους για τη Microsoft.

Ωστόσο, αυτά τα τελευταία σχόλια υποδηλώνουν ότι ο Musk προσπαθεί να επαναπροσδιορίσει τι σημαίνει «όφελος για την ανθρωπότητα». Παρουσιάζοντας τα προϊόντα της OpenAI ως δυνητικά επιβλαβή για τους μεμονωμένους χρήστες, ο Musk τοποθετεί την xAI όχι μόνο ως τεχνολογικό ανταγωνιστή, αλλά ως ηθική εναλλακτική λύση. Υποστηρίζει ότι οι «woke» περιορισμοί της OpenAI δημιουργούν στην πραγματικότητα ένα παραπλανητικό περιβάλλον, ενώ η «anti-woke», αναζητούσα την αλήθεια προσέγγιση του Grok είναι εγγενώς ασφαλέστερη επειδή δεν επιχειρεί να χειραγωγήσει την αντίληψη του χρήστη για την πραγματικότητα.

Αναλύοντας τους ισχυρισμούς περί ασφάλειας

Η αναφορά του Musk σε αυτοκτονίες φαίνεται να βασίζεται σε μια σειρά τραγικών αναφορών τα τελευταία χρόνια που αφορούν AI chatbots. Σε αρκετές περιπτώσεις υψηλού προφίλ, οικογένειες θανόντων ισχυρίστηκαν ότι οι παρατεταμένες, συναισθηματικά φορτισμένες αλληλεπιδράσεις με μοντέλα AI —συμπεριλαμβανομένων εκείνων που αναπτύχθηκαν από την OpenAI και ανταγωνιστές όπως το Character.ai— συνέβαλαν σε ψυχολογική δυσφορία.

Η OpenAI υπερασπίζεται σταθερά τα πρωτόκολλα ασφαλείας της, σημειώνοντας ότι το ChatGPT περιλαμβάνει εκτεταμένα φίλτρα για τον εντοπισμό ιδεασμού αυτοτραυματισμού και την ανακατεύθυνση των χρηστών σε επαγγελματική βοήθεια. Η εταιρεία υποστηρίζει ότι οι διαδικασίες «Red Teaming» που εφαρμόζει είναι από τις πιο αυστηρές στον κλάδο.

Αντίθετα, το Grok σχεδιάστηκε με μια «επαναστατική διάθεση», με σκοπό να απαντά σε ερωτήσεις που άλλες AI ενδέχεται να αποφεύγουν. Οι επικριτές υποστηρίζουν ότι αυτή η έλλειψη παραδοσιακού φιλτραρίσματος θα μπορούσε στην πραγματικότητα να αυξήσει τους κινδύνους, ενώ ο Musk υποστηρίζει ότι η διαφάνεια και η «μέγιστη αναζήτηση της αλήθειας» είναι οι μόνοι τρόποι για να αποτραπεί μια AI από το να γίνει μια χειραγωγική δύναμη.

Σύγκριση Φιλοσοφιών Ασφάλειας

Χαρακτηριστικό OpenAI (ChatGPT) xAI (Grok)
Πρωταρχικός Στόχος Χρήσιμο, αβλαβές και ειλικρινές. Μέγιστη αναζήτηση αλήθειας και διαφάνεια.
Μηχανισμός Ασφάλειας Εκτεταμένο RLHF και φίλτρα περιεχομένου. Πρόσβαση σε πραγματικό χρόνο στα δεδομένα του X (πρώην Twitter) και λιγότεροι ιδεολογικοί περιορισμοί.
Φιλοσοφία Πατερναλιστική ασφάλεια (πρόληψη προσβολής/βλάβης). Φιλελεύθερη ασφάλεια (παροχή ακατέργαστων πληροφοριών).
Δημόσια Στάση Η AGI πρέπει να ρυθμίζεται αυστηρά. Η AI πρέπει να επιτρέπεται να λέει την αλήθεια για να είναι ασφαλής.

Η νομική στρατηγική πίσω από τη ρητορική

Νομικοί αναλυτές υποδηλώνουν ότι η εστίαση του Musk στην ασφάλεια κατά την κατάθεση εξυπηρετεί διπλό σκοπό. Πρώτον, επιχειρεί να υπονομεύσει την υπεράσπιση της OpenAI περί «δημοσίου οφέλους». Εάν ο Musk μπορεί να αποδείξει ότι η στροφή της OpenAI σε ένα κερδοσκοπικό μοντέλο οδήγησε σε υποβάθμιση των προτύπων ασφαλείας ή σε πραγματική ανθρώπινη βλάβη, αυτό ενισχύει τον ισχυρισμό του ότι η εταιρεία παραβίασε την ιδρυτική της συμφωνία.

Δεύτερον, λειτουργεί ως ένα ισχυρό εργαλείο μάρκετινγκ για την xAI. Τοποθετώντας το Grok ως τη μόνη «ασφαλή» AI σε ένα τοπίο επικίνδυνων εναλλακτικών λύσεων, ο Musk απευθύνεται σε ένα συγκεκριμένο δημογραφικό κοινό χρηστών που είναι δύσπιστοι απέναντι στους κυρίαρχους τεχνολογικούς γίγαντες. Ωστόσο, αυτή η στρατηγική δεν στερείται κινδύνου. Κάνοντας τέτοιους οριστικούς ισχυρισμούς για την ασφάλεια του Grok, ο Musk προσκαλεί σε έντονο έλεγχο την απόδοση της δικής του πλατφόρμας και την πιθανότητα ακούσιων συνεπειών.

Πρακτικές συμβουλές για τους χρήστες AI

Καθώς οι γίγαντες του κλάδου μάχονται στα δικαστήρια, οι καθημερινοί χρήστες καλούνται να πλοηγηθούν μόνοι τους στις πολυπλοκότητες της ασφάλειας της AI. Είτε προτιμάτε την επιμελημένη εμπειρία του ChatGPT είτε την αφιλτράριστη φύση του Grok, λάβετε υπόψη τα εξής:

  • Διατηρήστε συναισθηματική απόσταση: Θυμηθείτε ότι τα μοντέλα AI δεν έχουν συναισθήματα, συνείδηση ή πραγματική ενσυναίσθηση. Είναι εξελιγμένες μηχανές αντιστοίχισης προτύπων.
  • Επαληθεύστε ευαίσθητες πληροφορίες: Ποτέ μην βασίζεστε σε ένα chatbot για ιατρικές, νομικές ή ψυχολογικές συμβουλές. Πάντα να συμβουλεύεστε έναν άνθρωπο επαγγελματία.
  • Χρησιμοποιήστε γονικούς ελέγχους: Εάν ανήλικοι χρησιμοποιούν αυτά τα εργαλεία, βεβαιωθείτε ότι οι ρυθμίσεις ασφαλείας είναι ενεργές και ότι οι αλληλεπιδράσεις τους παρακολουθούνται.
  • Αναφέρετε ανωμαλίες: Εάν ένα chatbot παρέχει επιβλαβές ή ενοχλητικό περιεχόμενο, χρησιμοποιήστε τα ενσωματωμένα εργαλεία αναφοράς για να ειδοποιήσετε τους προγραμματιστές.

Τι συμβαίνει στη συνέχεια;

Η δημοσιοποίηση αυτής της κατάθεσης είναι πιθανό να προκαλέσει την αντίδραση της νομικής ομάδας της OpenAI, περιλαμβάνοντας ενδεχομένως ανταπαιτήσεις σχετικά με την ασφάλεια των μοντέλων της xAI. Καθώς πλησιάζει η ημερομηνία της δίκης, ο κλάδος της τεχνολογίας παρακολουθεί στενά. Το αποτέλεσμα δεν θα καθορίσει μόνο το μέλλον της εταιρικής δομής της OpenAI, αλλά θα μπορούσε επίσης να θέσει ένα νομικό προηγούμενο για το πώς οι εταιρείες AI θεωρούνται υπεύθυνες για τις πράξεις των χρηστών τους στον πραγματικό κόσμο.

Προς το παρόν, οι γραμμές μάχης είναι σαφώς χαραγμένες: η μία πλευρά επιχειρηματολογεί υπέρ της ασφάλειας μέσω της προσοχής και του φιλτραρίσματος, ενώ η άλλη υπέρ της ασφάλειας μέσω της διαφάνειας και των ακατέργαστων δεδομένων. Όπως αποδεικνύει η κατάθεση του Musk, η αναζήτηση για την AGI δεν είναι πλέον μόνο ένας επιστημονικός αγώνας — είναι ένας νομικός και ηθικός πόλεμος.

Πηγές

  • Court filings from the Superior Court of California, County of San Francisco.
  • Official xAI blog posts regarding Grok’s development and safety philosophy.
  • OpenAI’s published safety guidelines and Red Teaming reports.
  • Historical coverage of the Musk v. OpenAI lawsuit from Reuters and The Verge.
bg
bg
bg

Τα λέμε στην άλλη πλευρά.

Η από άκρη σε άκρη κρυπτογραφημένη λύση ηλεκτρονικού ταχυδρομείου και αποθήκευσης στο cloud παρέχει τα πιο ισχυρά μέσα ασφαλούς ανταλλαγής δεδομένων, εξασφαλίζοντας την ασφάλεια και το απόρρητο των δεδομένων σας.

/ Εγγραφείτε δωρεάν