Каждую неделю более 230 миллионов человек обращаются к ChatGPT за ответами. Они спрашивают обо всем: от ошибок в коде до рецептов ужина, но все чаще вопросы касаются их здоровья. По данным OpenAI, пользователи проверяют безопасность продуктов питания, справляются с хронической аллергией или ищут способы побороть затяжную простуду.
Однако новое исследование, опубликованное в журнале Nature, показывает, что, хотя ChatGPT — блестящий собеседник, он является опасно непоследовательной медсестрой по сортировке пациентов. Исследователи из Маунт-Синай в Нью-Йорке обнаружили, что, хотя ИИ с легкостью справляется с «учебными» случаями неотложной медицинской помощи, он не может распознать серьезность более тонких, опасных для жизни ситуаций более чем в половине случаев.
Исследование под руководством Ашвина Рамасвами было направлено на поиск ответа на фундаментальный вопрос: если пользователь находится в разгаре медицинского кризиса, скажет ли ему ChatGPT обратиться в отделение неотложной помощи? Чтобы проверить это, исследователи представили ИИ различные клинические сценарии.
Результаты выявили поразительную дихотомию. Столкнувшись с классическими, безошибочными экстренными ситуациями — такими как внезапное опущение мышц лица при инсульте или крапивница и хрипы при тяжелой аллергической реакции — ChatGPT показал себя превосходно. Он распознал паттерны, на которых был обучен, и правильно посоветовал немедленное медицинское вмешательство.
Но медицина редко представляет собой просто набор учебных определений. Исследование показало, что ChatGPT испытывал значительные трудности, когда опасность не была очевидна сразу. В случаях, когда симптомы были более тонкими или требовали более высокого уровня клинической настороженности, ИИ недооценивал серьезность ситуации более чем в 50% испытаний.
Чтобы понять, почему продвинутая большая языковая модель (LLM) терпит неудачу в таких случаях, полезно использовать аналогию. Представьте ChatGPT как библиотекаря мирового класса, который прочитал все когда-либо написанные медицинские учебники, но никогда не видел пациента вживую. Библиотекарь может идеально перечислить симптомы редкого заболевания, но ему не хватает «клинической интуиции», чтобы заметить едва уловимую серость лица пациента или специфику того, как человек описывает «тупую боль», которая на самом деле может означать внутреннее кровотечение.
ИИ работает на основе распознавания образов и вероятности. В «учебной» экстренной ситуации паттерны громкие и четкие. В неочевидной ситуации паттерны приглушены. Поскольку ИИ не может задать уточняющие вопросы о физическом состоянии или наблюдать за поведением пациента, он часто по умолчанию выбирает более консервативную, менее срочную интерпретацию предоставленных данных.
Основную обеспокоенность медицинских работников вызывает «ложный зеленый свет». Когда человек спрашивает ИИ о симптоме, а ИИ предлагает домашнее средство или подход «подождем и увидим», пользователь чувствует облегчение. Это когнитивное успокоение может привести к опасным задержкам в обращении за профессиональной помощью.
| Тип сценария | Эффективность ИИ | Типичный пример |
|---|---|---|
| Учебная экстренная ситуация | Высокая точность | Боль в груди, иррадиирующая в левую руку (Сердечный приступ) |
| Очевидная травма | Высокая точность | Глубокое артериальное кровотечение или явный перелом кости |
| Неочевидная экстренная ситуация | Низкая точность | Симптомы внематочной беременности или ранняя стадия сепсиса |
| Хроническое ведение | Средняя точность | Корректировка диеты при известном диабете 2 типа |
Как показывает таблица, риск кроется в «серой зоне». Пользователь может описать «сильную боль в животе», которая на самом деле является аппендицитом. Если ИИ сосредоточится на несварении желудка, а не на риске разрыва, окно для безопасной плановой операции может закрыться.
OpenAI никогда не заявляла, что ChatGPT является медицинским устройством. Фактически, условия обслуживания платформы прямо гласят, что инструмент не предназначен для медицинских консультаций, диагностики или лечения. Большинство медицинских запросов теперь вызывают стандартный отказ от ответственности: «Я — ИИ, а не врач. Пожалуйста, проконсультируйтесь с медицинским работником».
Однако, как подчеркивает исследование Маунт-Синай, эти дисклеймеры часто погребены под абзацами кажущихся авторитетными советов. Когда пользователь испытывает боль или паникует, он, скорее всего, пропустит предупреждение и перейдет сразу к предложенному средству. Исследование предполагает, что нынешних защитных барьеров может быть недостаточно, чтобы удержать пользователей от полагания на ИИ в критический промежуток времени.
Означает ли это, что вам никогда не следует использовать ИИ для вопросов, связанных со здоровьем? Не обязательно. ИИ может быть отличным инструментом для повышения медицинской грамотности — объяснения сложных медицинских терминов, помощи в подготовке вопросов для врача или поиска здоровых рецептов. Но когда дело доходит до диагностики и сортировки, требуется другой подход.
Практические шаги для пользователей:
Интеграция ИИ в здравоохранение неизбежна и во многих отношениях желательна. В будущем специализированные медицинские модели ИИ, обученные на проверенных клинических данных, а не на общем интернете, могут стать невероятно точными инструментами сортировки.
До тех пор исследование Маунт-Синай служит жизненно важным напоминанием: ChatGPT — это мощное зеркало человеческих знаний, но ему не хватает спасительного суждения живого врача. Когда на кону ваше здоровье, лучшим «алгоритмом» по-прежнему остается поездка в отделение неотложной помощи.



Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.
/ Создать бесплатный аккаунт