Power Reads

ООН создает глобальную группу по безопасности ИИ из 40 экспертов на фоне растущих предупреждений инсайдеров

ООН запускает научную группу из 40 человек для изучения рисков ИИ, преодолевая геополитическую напряженность и призывы к прозрачности со стороны инсайдеров индустрии.
Linda Zola
Linda Zola
14 февраля 2026 г.
ООН создает глобальную группу по безопасности ИИ из 40 экспертов на фоне растущих предупреждений инсайдеров

Стремясь преодолеть разрыв между стремительным технологическим прогрессом и международным надзором, Генеральный секретарь Организации Объединенных Наций Антониу Гутерриш официально открыл глобальную научную группу из 40 человек, занимающуюся вопросами безопасности искусственного интеллекта. Охарактеризованная Гутерришем как «фундаментальный шаг к глобальному научному пониманию ИИ», группа призвана исследовать экзистенциальные и системные риски, создаваемые передовыми моделями машинного обучения.

Формирование этого органа происходит в переломный момент. За последний год растущий хор информаторов и бывших сотрудников лидеров отрасли, таких как OpenAI, Anthropic и Google DeepMind, выразил обеспокоенность по поводу отсутствия прозрачности и скорости внедрения передовых моделей. Эта инициатива ООН представляет собой первую согласованную попытку централизовать научный консенсус по ИИ в глобальном масштабе, независимо от корпоративного влияния.

Катализатор: тревога внутри индустрии

Стремление к созданию централизованного органа ООН было значительно ускорено движением «Право на предупреждение» (Right to Warn). Эта группа технологических инсайдеров утверждает, что текущие стимулы, ориентированные на прибыль, мешают компаниям раскрывать истинную степень рисков, связанных с сильным искусственным интеллектом (AGI). Они подчеркнули проблемы, варьирующиеся от эрозии демократических процессов с помощью дипфейков до потенциальной возможности автономных систем выходить из-под контроля человека.

Создавая эту группу, ООН стремится предоставить платформу, где научные доказательства, а не корпоративный пиар, диктуют глобальную повестку безопасности. Ожидается, что 40 участников, представляющих научные круги, гражданское общество и центры технических исследований из различных регионов, будут выступать в качестве нейтрального арбитра истины в условиях растущей поляризации технологического ландшафта.

Преодоление геополитических трений

Запуск группы не обошелся без споров. Соединенные Штаты вместе с несколькими ключевыми союзниками первоначально выразили решительное несогласие с этим шагом. Трения возникают из-за фундаментального разногласия по поводу того, где должен находиться центр управления ИИ. В то время как США выступают за рамки безопасности, возглавляемые индустрией, и Хиросимский процесс по ИИ под руководством G7, подход ООН делает упор на более инклюзивную, многостороннюю модель управления.

Критики в Вашингтоне утверждают, что орган под руководством ООН может погрязнуть в бюрократии или использоваться странами-соперниками для подавления западных инноваций. Напротив, сторонники группы утверждают, что ИИ — это «безграничная» технология, подобно изменению климата, требующая глобального ответа, включающего Глобальный Юг, который часто остается в стороне от дискуссий, сосредоточенных на Кремниевой долине.

Научная «МГЭИК для ИИ»

Чтобы понять миссию группы, можно обратиться к Межправительственной группе экспертов по изменению климата (МГЭИК). Подобно тому, как МГЭИК не устанавливает политику, а предоставляет научные данные, которые ложатся в основу глобальных климатических соглашений, группа ООН по ИИ стремится создать общий отчет «О состоянии науки». Этот отчет послужит базой для стран при разработке их собственных внутренних правил без необходимости «изобретать велосипед».

Ключевые области внимания группы включают:

  • Квантификация рисков: Разработка стандартизированных метрик для измерения потенциала модели к обману или вредоносному выводу.
  • Суверенитет данных: Решение вопросов об источниках обучающих данных и их влиянии на интеллектуальную собственность в различных юрисдикциях.
  • Интероперабельность: Обеспечение того, чтобы стандарты безопасности в одной стране могли признаваться и применяться в другой.

Практические последствия для технологического сектора

Для разработчиков, стартапов и корпоративных лидеров участие ООН сигнализирует о переходе от добровольных «обещаний безопасности» к более структурированной нормативной среде. Хотя группа не имеет права принимать законы, ее выводы, вероятно, повлияют на будущие международные торговые соглашения и национальные аудиты безопасности.

Характеристика Рамки под руководством индустрии Глобальная научная группа ООН
Основная цель Инновации и рыночная стабильность Глобальная безопасность и права человека
Прозрачность Проприетарная/Внутренняя Публичная/Рецензируемая
Инклюзивность Технологические центры с высоким доходом Глобальное многостороннее представительство
Исполнение Добровольное соблюдение Информирование международного права

Что делать дальше: подготовка к глобальным стандартам

По мере того как группа начинает свою работу, организациям следует выйти за рамки реактивной позиции в отношении безопасности ИИ. Вот практические шаги, которые следует рассмотреть технологическим лидерам:

  1. Аудит прозрачности: Пересмотрите свои внутренние процессы разработки ИИ. Можете ли вы объяснить, как ваши модели приходят к конкретным выводам? Группа ООН, вероятно, порекомендует высокие стандарты «объяснимости».
  2. Мониторинг международных ориентиров: Следите за квартальными брифингами группы. Они, вероятно, станут образцом для будущих требований по соблюдению нормативных актов в ЕС, Азии и, в конечном итоге, в США.
  3. Участие в многосторонних диалогах: Не полагайтесь исключительно на отраслевые группы. Участвуйте в форумах, включающих гражданское общество и академических исследователей, чтобы получить более широкое представление о влиянии ИИ.
  4. Приоритет исследований безопасности: Выделяйте процент от НИОКР специально на безопасность и выравнивание (alignment). Разрыв между «возможностями» и «безопасностью» является основной заботой нового органа ООН.

Долгий путь впереди

Создание этой группы из 40 человек является признанием того, что ИИ больше не является просто коммерческим продуктом; это глобальный ресурс, способный изменить общество. Хотя политический путь вперед остается тернистым, приверженность научному, основанному на доказательствах подходу дает проблеск надежды на будущее, в котором технологии служат человечеству безопасно и справедливо.

Источники:

  • United Nations: Secretary-General's High-level Advisory Body on Artificial Intelligence
  • Reuters: UN appoints global panel to study AI risks
  • The Guardian: Tech whistleblowers call for right to warn on AI risks
  • UN News: Guterres announces 40-member AI advisory body
bg
bg
bg

До встречи на другой стороне.

Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.

/ Создать бесплатный аккаунт