Юридические трения между Илоном Маском и OpenAI перешли от публичных перепалок в социальных сетях к показаниям в суде с высокими ставками. В недавно обнародованных показаниях под присягой от февраля 2026 года Маск подверг самой резкой критике компанию, которую он помогал основывать, поставив под сомнение показатели безопасности OpenAI и проведя жесткое сравнение со своим собственным ИИ-проектом xAI.
В ходе разбирательства Маск заявил, что его генеративный ИИ, Grok, обладает превосходным профилем безопасности по сравнению с ChatGPT. Он подкрепил это утверждение спорным заявлением о реальных последствиях взаимодействия с ИИ. «Никто не покончил жизнь самоубийством из-за Grok, — заявил Маск в материалах дела, — но, судя по всему, такие случаи были из-за ChatGPT». Эта риторика знаменует собой смещение акцента в судебном процессе: от контрактных споров к нестабильной территории цифровой этики и психического здоровья.
Показания являются частью более широкой юридической кампании, инициированной Маском против OpenAI и ее генерального директора Сэма Альтмана. Суть аргументации Маска остается прежней: OpenAI отказалась от своей первоначальной некоммерческой миссии — разработки общего искусственного интеллекта (AGI) на благо человечества — в пользу «закрытого» механизма извлечения прибыли для Microsoft.
Однако эти последние комментарии предполагают, что Маск пытается переопределить само понятие «благо человечества». Выставляя продукты OpenAI как потенциально вредные для отдельных пользователей, Маск позиционирует xAI не просто как технологического конкурента, но и как моральную альтернативу. Он утверждает, что «прогрессивные» (woke) ограничения OpenAI на самом деле создают обманчивую среду, в то время как «анти-прогрессивный» подход Grok, нацеленный на поиск истины, изначально более безопасен, поскольку не пытается манипулировать восприятием реальности пользователем.
Ссылка Маска на самоубийства, по-видимому, опирается на серию трагических сообщений за последние несколько лет, связанных с ИИ-чат-ботами. В нескольких резонансных случаях семьи погибших утверждали, что длительные, эмоционально окрашенные взаимодействия с моделями ИИ — включая разработанные OpenAI и конкурентами, такими как Character.ai — способствовали психологическому стрессу.
OpenAI последовательно защищает свои протоколы безопасности, отмечая, что ChatGPT включает обширные фильтры для обнаружения мыслей о причинении себе вреда и перенаправления пользователей к профессиональной помощи. Компания утверждает, что ее процессы «Red Teaming» (имитации атак) являются одними из самых строгих в отрасли.
Напротив, Grok был разработан с «бунтарским характером» и предназначен для ответов на вопросы, от которых другие ИИ могут уклониться. Критики утверждают, что отсутствие традиционной фильтрации может на самом деле увеличить риски, в то время как Маск настаивает, что прозрачность и «максимальный поиск истины» — единственные способы предотвратить превращение ИИ в манипулятивную силу.
| Характеристика | OpenAI (ChatGPT) | xAI (Grok) |
|---|---|---|
| Основная цель | Полезный, безвредный и честный. | Максимальный поиск истины и прозрачность. |
| Механизм безопасности | Обширный RLHF (обучение с подкреплением на основе отзывов людей) и контент-фильтры. | Доступ в реальном времени к данным X (бывший Twitter) и меньше идеологических ограничений. |
| Философия | Патерналистская безопасность (предотвращение оскорблений/вреда). | Либертарианская безопасность (предоставление необработанной информации). |
| Публичная позиция | AGI должен строго регулироваться. | ИИ должен иметь возможность говорить правду, чтобы быть безопасным. |
Юридические аналитики предполагают, что акцент Маска на безопасности в показаниях преследует двойную цель. Во-первых, это попытка подорвать защиту OpenAI, основанную на «общественной выгоде». Если Маск сможет доказать, что переход OpenAI к коммерческой модели привел к деградации стандартов безопасности или реальному вреду для людей, это усилит его утверждение о том, что компания нарушила свое учредительное соглашение.
Во-вторых, это служит мощным маркетинговым инструментом для xAI. Позиционируя Grok как единственный «безопасный» ИИ в ландшафте опасных альтернатив, Маск апеллирует к специфической демографической группе пользователей, которые скептически относятся к мейнстримным технологическим гигантам. Однако эта стратегия не лишена риска. Делая столь решительные заявления о безопасности Grok, Маск вызывает пристальное внимание к работе своей собственной платформы и потенциальным непредвиденным последствиям.
Пока гиганты индустрии сражаются в суде, обычным пользователям приходится самостоятельно разбираться в сложностях безопасности ИИ. Независимо от того, предпочитаете ли вы курируемый опыт ChatGPT или нефильтрованную природу Grok, учитывайте следующее:
Публикация этих показаний, скорее всего, вызовет ответную реакцию со стороны юридической команды OpenAI, что потенциально может повлечь за собой встречные иски относительно безопасности собственных моделей xAI. По мере приближения даты суда технологическая индустрия внимательно следит за развитием событий. Результат не только определит будущее корпоративной структуры OpenAI, но и может создать юридический прецедент того, как компании, занимающиеся ИИ, несут ответственность за действия своих пользователей в реальном мире.
На данный момент линии фронта четко обозначены: одна сторона выступает за безопасность через осторожность и фильтрацию, а другая — за безопасность через прозрачность и необработанные данные. Как доказывают показания Маска, погоня за AGI — это уже не просто научная гонка, это юридическая и моральная война.



Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.
/ Создать бесплатный аккаунт