Давайте поговорим о прекрасномОднажды, лёжа на пляже и желая провести время в хорошей компании, я скачал на телефон Искусственный Интеллект (ИИ) — нейронную сеть GPT-4 — (у них была бесплатная подписка на три дня).Мне было интересно, что спросить его, чтобы он не обиделся. Или чтобы я стал первым в списке на уничтожение человечества. Я уважительно спрашиваю компьютерное зрение — каковы, по вашему мнению, самые красивые стихи?Тогда искусственная нейронная сеть подумала три секунды и дала ожидаемый ответ. Она сказала, что вопрос субъективен и зависит от множества факторов. Но вот, если вам интересно моё мнение, примеры самых красивых стихотворений.Она привела мне катрен моего любимого русского поэта Александра Блока, непонятный и даже услышанный мной впервые, возможно, это даже не Блок, какое-то осязание океана. Затем отрывок из Сонета Шекспира в неудачном переводе и не самом прекрасном варианте. Далее — «Ночь, улица, фонарь, аптека», от того же Блока. Мощное стихотворение, но вряд ли тоже красивое. И, наконец, лирика Шиллера к «Оде к радости», которая кажется лишь жалким бредом.Ладно, пробормотал я чем-то разочарованный, вспомнив, однако, о возможной мести. Машина сказала, что жалко — она не может меня порадовать.Ничего страшного, думаю я, ведь современные девочки всё меньше и меньше понимают в стихах и поэтах.## **Ты шутишь?**Тогда я решил упростить задачу — пусть ИИ скажет самую смешную шутку.Нейронка подумала об этом полсекунды, выдала обычную фразу о субъективности и предложила посмеяться над такой, как она выразилась, «классической шуткой». Мама убеждает сына есть кашу, потому что она очень полезна.«Ладно», — говорит сын. — «Я съем её, если ты перечислишь все полезные элементы, которые она содержит». Тогда мама говорит, что в ней есть все самые важные витамины и микроэлементы, и затем рассказывает латинский алфавит. На какую букву смеяться — я не понял.Как тебе это понравилось? — спрашивает машина, напоминая мне шутника, который без стеснения шутит в любой компании, но чьи шутки никто не смеётся.Вот так и есть. Пока что мы, поэты и люди с чувством юмора, ничего бояться не должны. Говорят, что GPT-5 уже в пути, а нейронная сеть учится быстро. Но как-то я сохраняю спокойствие за своё чувство юмора и чувство красоты.Недавно в моей стране популярная субботняя радиопрограмма, традиционно и успешно ведущаяся двумя ведущими, обладающими хорошо развитым языком и чувством юмора, — «подсадили» третьего «дополнительного». Это говорит голос ИИ женского голоса (напоминающего голос зомби), который пытается шутить, но в некоторых местах выходит грустно и даже жутко.## **Твой пёс любит сауну?**Затем мой смартфон и я перегрелись под жарким июньским солнцем, и я поплелся с пляжа.По пути я встретил странную пару. Высокий мужчина вел собаку на поводке, я думаю, русского грея, — у нее были цветные вязанные гамаши, а походка была такая кокетливая, подпрыгивающая. И он говорил что-то серьезное ей.Проходя мимо, я уловил фрагмент разговора. «…но всё-таки, мне больше нравится паровая баня, чем сауна», — рассказывал хозяин русскому грею, и он кивал, как будто понимал, что ему говорят.Хотя, где у такой шерсти баня, да ещё и в гамашах. С другой стороны, возможно, в ней есть чип. Все собаки зарегистрированы и чипированы. Обсудите это со своим питомцем.## **Так почему же они хотят ограничить её?**Однако многие боятся не мифических угроз уничтожения человечества. Но, например, манипуляций в избирательных кампаниях, когда ИИ может сделать кандидата слишком умным или слишком красивым. Не зря в феврале депутаты Европейского союза договорились о регулировании искусственного интеллекта, которое направлено на обеспечение безопасного и ответственного использования ИИ. За нарушения выписываются штрафы в миллионы долларов.«Это революционный регламент, который регулирует разработку систем ИИ, их вывод на рынок, а также их поставку и использование», — сказал в комментарии для BNS Туумас Сеппел, присягнувший юрист из юридической фирмы Hedman.За нарушение требований регламента предусмотрены штрафы в миллионы евро. Например, по требованию нарушителя могут назначить штраф до €7,5 миллиона или 1,5% годового оборота компании в будущем. В случае крупных международных предприятий штрафы могут достигать €35 миллионов и составлять до 7% мирового оборота.«Размер штрафов зависит как от степени нарушения, так и от размера и оборота компании. Такой жёсткий контроль важен для предотвращения нарушений и эффективной защиты прав людей, способствуя ответственному развитию и использованию искусственного интеллекта», — объяснил Сеппел.## **Безопасны ли мы?**Для людей прозрачность, связанная с регулированием, очень важна: при взаимодействии с людьми системы ИИ должны информировать пользователей, что они общаются с машиной. Это касается, например, автоматической идентификации на границе, чат-ботов в службе поддержки, а также Snapchat и ChatGPT.Кроме того, люди, использующие искусственно созданные deepfake, должны указывать, что контент создан искусственным интеллектом. За нарушение для физических лиц штрафов нет, но это не исключает ответственность пользователя deepfake по общим основаниям, например, при клевете.В регламенте введено понятие общее искусственный интеллект (GPAI). Наиболее известные виды нейронных сетей — это ChatGPT, Gemini, Midjourney, DALL-E, то есть системы, которые могут выполнять такие задачи, как генерация текстов, изображений или звуков. В будущем системы GPAI должны отвечать требованиям прозрачности.Также регулируется более мощное GPAI с большими языковыми моделями и тренировочными данными, которые могут создавать системные риски. Самые известные из них — OpenAI (GPT-3, GPT-4), DeepMind (AlphaGo, AlphaFold) и IBM (IBM Watson), и к ним будут применяться дополнительные обязательства.## Уровни опасностиЗаверенный адвокат объяснил, что регламент делит системы ИИ на три категории по потенциальному риску: низкий, высокий и запрещённый.Допускаемые системы ИИ подчиняются общим требованиям прозрачности: техническая документация, соблюдение авторских прав и раскрытие агрегированных данных, используемых при обучении. Для систем высокого риска и запрещённых — вводятся дополнительные обязательства и запреты.Системы ИИ с высоким риском подлежат обширным требованиям, таким как установка системы управления рисками, подготовка и обновление технической документации, соблюдение требований прозрачности и обеспечение человеческого надзора. Примеры систем с высоким риском — системы, используемые в критической инфраструктуре, медицинских приборах, правоохранительных органах и судебной системе.ЕС пришёл к консенсусу, что системы искусственного интеллекта, угрожающие основным правам человека, будут классифицированы как системы с запрещённым риском, и их разработка и использование в ЕС будут запрещены.К запрещённым системам относятся, например, биометрические системы и базы данных распознавания лиц, использующие чувствительную информацию. Например, распознавание эмоций на рабочем месте и в учебных заведениях запрещено, также системы, манипулирующие подсознательным поведением людей и эксплуатирующие их уязвимости.## Следите за новостямиРегламент по искусственному интеллекту сейчас ожидает дальнейших уточнений и принятия законодателями ЕС. Эстония в настоящее время разрабатывает свою стратегию искусственного интеллекта на основе регламента ЕС, которая задаёт направления и создает стандарты, а также систематически рассматривает пути обеспечения надежности ИИ и снижения рисков в разработке и использовании ИИ.Регламент по ИИ будет одобрен на уровне комиссии в ближайшие недели. Затем запланировано голосование в Европейском парламенте, которое, как ожидается, состоится в апреле.
Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.