Cтатьи об ИИ лучше проверять...в самом ИИ! Не верите? Докажу!
Как проверять тексты про ИИ, используя сам ИИ
(и почему даже «солидные» новости иногда подменяют смысл)
Этот лонгрид написан вместе с ChatGPT. Да, это тот самый случай, когда я попросил ИИ разобрать заметку… про него же самого, а потом превратил разбор в человеческий текст. И в этом есть практический смысл: у ИИ нет человеческой обидчивости, ему не нужно «быть правым», он быстро ловит логические скачки, не устаёт сверять формулировки, а главное, умеет педантично сравнивать пересказ с первоисточником.
Но есть нюанс, который стоит проговорить сразу. ИИ хорошо помогает проверять факты ровно до тех пор, пока вы заставляете его идти к первоисточникам и показывать, где именно написано то, что он утверждает. Если дать ему свободу, он так же бодро начнёт додумывать, как и любой человек, просто будет делать это более уверенным тоном.
Ниже разбор заметки PsyAndNeuro «ChatGPT: более миллиона пользователей еженедельно демонстрируют признаки тяжёлой психопатологии» (10.11.2025).(кликабельно)
1) Что в статье выглядит корректно и откуда вообще взялись цифры
В тексте PsyAndNeuro звучит очень конкретный тезис: доли процента превращаются в «миллионы людей», потому что платформа огромная. Это не выдумка «из воздуха», а пересказ логики, которая действительно встречается в обсуждении вокруг данных OpenAI и публикации в The BMJ.
OpenAI в своём материале про «чувствительные разговоры» формулируют оценки аккуратно: это initial analysis estimates, то есть первичные оценки. Среди них есть две ключевые цифры:
- около 0,07% пользователей, активных в течение недели, имеют разговоры с возможными признаками психиатрической неотложности, связанной с психозом или манией
- около 0,15% пользователей, активных в течение недели, имеют разговоры с явными индикаторами потенциального суицидального планирования или намерения
Дальше включается простая математика. Если принять масштаб порядка 800 млн активных в неделю, то 0,15% превращаются примерно в 1,2 млн, а 0,07% в примерно 560 тыс. Именно так PsyAndNeuro и получают свои «миллионы».
На этом месте важно не спорить с арифметикой, а спросить о другом: что именно измеряли, насколько аккуратно это пересказали и где «проценты от сигналов» внезапно превращаются в «диагнозы людям».
2) Главная проблема: цифры могут быть близки к первоисточнику, а смысл уже подменён
Заголовок задаёт диагноз там, где в первоисточнике речь о текстовых индикаторах
«Признаки тяжёлой психопатологии» звучит так, будто мы читаем сводку по клинике. Хотя даже в самой заметке дальше говорится про «признаки психического дистресса, мании или суицидальных намерений» и про внутренние данные, а не про верифицированную диагностику.
У OpenAI же рамка совсем иная: они описывают таксономии и автоматическое распознавание редких событий, и отдельно подчёркивают проблему измерения редких разговоров. Более того, они прямо сравнивают этот компромисс точности и полноты с медицинским скринингом редких состояний: чтобы не пропускать редкие случаи, приходится терпеть ложноположительные срабатывания.
И вот это важнейшая вещь, которую заметка PsyAndNeuro не проговаривает явно: индикатор в тексте не равен диагнозу у человека. Это не придирка к словам, это принципиальная разница, потому что иначе читатель уносит домой мысль «миллионы психотиков и суицидентов сидят в ChatGPT», хотя исходные данные так не устроены.
«Внутренний аудит» звучит солиднее, чем «первичная оценка», и этим пользуются
В статье сказано: «в The BMJ опубликованы результаты внутреннего аудита OpenAI».
У OpenAI в первоисточнике стиль гораздо осторожнее: «initial analysis estimates», оговорки про редкость, сложности детекции, про то, что измерения могут меняться по мере улучшения методик.
Слово «аудит» у большинства людей вызывает ощущение независимой, почти бухгалтерской проверки. А по смыслу это ближе к «внутренней оценке по собственным классификаторам и таксономиям», что автоматически требует более сдержанного тона.
3) Конкретные места, где статья «плывёт» логически или терминологически
3.1. Подмена «суицидального планирования/намерения» на «суицидальные мысли»
PsyAndNeuro пишут: «около 1,2 миллиона людей с суицидальными мыслями».
У OpenAI формулировка другая: «explicit indicators of potential suicidal planning or intent», то есть явные индикаторы потенциального планирования или намерения.
Это не стилистика. В клиническом смысле «мысли» и «намерение с планированием» находятся в разных зонах риска и требуют разной интерпретации. Здесь читателю продают более привычное и «мягкое» слово, хотя исходная формулировка жёстче.
3.2. Сваливание в одну кучу: дистресс, мания, суицидальные намерения
Фраза «признаки психического дистресса, мании или суицидальных намерений» звучит драматично и создаёт ощущение единого блока «тяжёлого».
Проблема в том, что дистресс сам по себе может описывать очень широкий спектр переживаний, вплоть до вполне нормативных реакций на тяжёлые обстоятельства. Когда его ставят рядом с манией и суицидальным намерением, читатель почти автоматически воспринимает всё как «одинаково патологическое».
3.3. Фраза «Сегодня ChatGPT реагирует только на угрозы другим людям» выглядит фактически неверной без уточнений
В PsyAndNeuro: «Сегодня ChatGPT реагирует только на угрозы другим людям, а не самому пользователю».
Если под «реагирует» понимать «переходит в поддерживающий режим, отказывается от опасных инструкций, направляет к ресурсам помощи», то это не соответствует описанию OpenAI. Они прямо пишут, что при суицидальном намерении модель обучена направлять к профессиональной помощи и кризисным линиям.
Если же автор имел в виду «эскалирует наружу, передаёт сигнал тревоги», то тут как раз есть тонкая этическая дискуссия. OpenAI описывают, что угрозы причинения вреда другим людям могут направляться на человеческий разбор и в редких случаях приводить к обращению в правоохранительные органы, а случаи самоповреждения они сейчас не направляют в полицию, ссылаясь на приватность.
То есть корректная формулировка должна была звучать примерно так: «эскалация угроз третьим лицам устроена иначе, чем эскалация самоповреждения». В нынешнем виде это выглядит как «ChatGPT вообще не реагирует на риск самоповреждения», что, мягко говоря, вводит в заблуждение.
4) Где здесь когнитивные искажения, и почему ИИ их неплохо ловит
Сразу оговорка: я использую термин «искажения» в бытовом смысле, как набор типичных ловушек мышления и риторики.
Искажение 1. Фрейминг: заголовок делает вывод за читателя
Слова «тяжёлая психопатология» задают эмоцию и интерпретацию ещё до того, как читатель увидел, что речь вообще-то о процентах и вероятностных индикаторах.
Искажение 2. Реификация: «сигнал классификатора» превращается в «факт о человеке»
OpenAI фактически говорят: мы ловим редкие паттерны, принимая неизбежные ложноположительные срабатывания, как в скрининге редких заболеваний.
А читателю это подано как «миллионы демонстрируют признаки», то есть почти как установленная клиническая реальность.
Искажение 3. Эффект больших чисел
«Доли процента, но миллионы людей» звучит ошеломляюще и почти автоматически вытесняет вопрос о точности измерений и природе индикаторов.
Искажение 4. Ложная дилемма в финале
«Этика паники и обвинений или этика участия и ответственности». Красиво, но это литературная развилка, а не логическая необходимость: можно одновременно не впадать в моральную панику и всё равно требовать жёстких стандартов, независимых оценок, прозрачности и ограничений.
5) Чек-лист читателя: как быстро понять, что вас «укачивают» смыслом
- Сравните существительные. В первоисточнике «индикаторы в разговорах», в пересказе «психопатология у пользователей». Это всегда красный флажок.
- Смотрите на подмену уровней риска. «Мысли» и «намерение/планирование» нельзя менять местами без объяснения.
- Ищите слово, которое придаёт “научный вес” без доказательности. «Аудит», «исследование показало», «учёные доказали», когда на деле речь о внутренних оценках и таксономиях.
- Проверяйте, не смешали ли разные категории в одно “плохое”. Дистресс, мания, психоз, суицидальные намерения живут в разных смысловых этажах.
- Разделяйте “ответ” и “эскалацию”. «Реагирует» может означать и поддерживающий ответ, и передачу сигнала третьим лицам. Это разные этические режимы, и подмена здесь особенно токсична.
6) Вывод
Самое неприятное в таких текстах не то, что «всё враньё». Чаще бывает тоньше: цифры могут быть примерно теми же, что в первоисточнике, но язык и рамка превращают вероятностные индикаторы в почти диагностические ярлыки, а обсуждение безопасности в драматический рассказ о «миллионах тяжёлых случаев».
Именно поэтому «проверять ИИ через ИИ» иногда работает неожиданно хорошо: машина без эмоций быстро замечает, где автор пересказа пересел на рельсы риторики, а не смысла. Правда, финальное слово всё равно должно оставаться за человеком, потому что ответственность за выводы и за тон несём не алгоритмы, а мы, люди!
Часть 2. Редактура без истерики: как переписать заметку про ChatGPT так, чтобы она не ставила диагнозы заголовком
В первой части мы разобрали, что у заметки PsyAndNeuro проблема не столько в калькуляторе, сколько в рамке. Сейчас я делаю то, что обычно никто не делает, потому что это скучно и требует дисциплины: беру громкий пересказ и превращаю его в текст, который остаётся цепляющим, но перестаёт подменять смысл.
- Материал The BMJ, на который ссылается PsyAndNeuro, по библиографии выглядит как журналистская заметка (news), написанная Adrian O’Dowd, без абстракта в PubMed, то есть это не «исследование» со своей методикой, а пересказ внутренних оценок.
- Первичный источник цифр и методологической рамки здесь всё равно OpenAI, потому что именно там описано, что именно считали, почему эти события редкие и почему любые проценты надо читать осторожно.
1) Что в исходной заметке надо чинить в первую очередь
Проблема №1. Диагноз из индикатора.
В PsyAndNeuro в заголовке и лиде звучит «признаки тяжёлой психопатологии», затем «результаты внутреннего аудита OpenAI», а дальше уже «миллионы людей» с тем или иным состоянием.
В первоисточнике OpenAI это устроено иначе: речь про таксономии, классификаторы, редкие события и про то, что даже небольшие изменения измерения сильно двигают итоговые числа, именно потому, что события очень редкие.
Если перевести на человеческий язык, то «пахнет дымом» не равно «у человека подтверждённый пожар».
Проблема №2. Подмена клинического смысла “intent/planning” на “мысли”.
PsyAndNeuro пишут «около 1,2 миллиона людей с суицидальными мыслями».
OpenAI в своей рамке говорят про «possible signs» и отдельно подчёркивают, что они детектируют «thoughts of suicide and self-harm» как область, но сами цифры в контексте их отчёта привязаны к «possible signs of mental health emergencies related to psychosis or mania» и к редкости подобных разговоров, с важными оговорками про измеримость.
Если автор пересказа хочет говорить именно про «мысли», он должен честно сказать, что он упрощает и расширяет категорию, иначе читатель считывает это как точный пересказ первоисточника.
Проблема №3. Нечёткое слово “реагирует”, которое ломает вывод.
В PsyAndNeuro есть формулировки, из которых читатель легко выносит ощущение, что на риск самоповреждения система «не реагирует», а на угрозы другим «реагирует».
У OpenAI “реакция” разложена на режимы: модель обучена не давать инструкции по самоповреждению, переходить в поддерживающий ответ и направлять к реальным ресурсам помощи, а угрозы причинения вреда другим людям могут уходить в специализированные пайплайны на человеческий разбор, вплоть до обращения в правоохранительные органы при неизбежной угрозе.
То есть проблема не в том, что тема сложная, проблема в том, что слово выбрано так, что смысл становится двусмысленным.
2) Три принципа честной редактуры, которые сохраняют остроту, но убирают манипуляцию
Принцип 1. Не называть индикатор диагнозом.
Можно писать жёстко, но корректно: «алгоритмы фиксируют индикаторы возможного кризиса в диалогах», а не «миллионы демонстрируют психопатологию».
Принцип 2. Не смешивать разные этажи в один “мешок ужаса”.
Дистресс, мания/психоз, суицидальные намерения и планирование, это разные сущности. Если их объединяют в одну строку, это делается ради эмоционального эффекта, а не ради ясности.
Принцип 3. Развести “ответ” и “эскалацию”.
Поддерживающий ответ внутри диалога и передача дела на человеческий разбор или вовне, это принципиально разные вещи. У OpenAI это различие прямо описано.
3) “Патч-ноты” к заметке PsyAndNeuro, коротко и по делу
Ниже список правок в логике «замените несколько слов, и текст перестанет обманывать читателя».
- «Признаки тяжёлой психопатологии» заменить на «индикаторы возможного психического кризиса в диалогах».
- «Результаты внутреннего аудита» заменить на «внутренняя оценка (первичный анализ) OpenAI».
- Фразу про «суицидальные мысли» либо перепривязать к первоисточнику аккуратной оговоркой, либо честно указать, что это упрощение пересказа.
- Слово «реагирует» конкретизировать: что имеется в виду, поддерживающий ответ или эскалация на человеческий разбор, потому что у OpenAI эти режимы описаны по-разному для self-harm и угроз другим.
4) Готовая версия заметки, которую можно ставить в медиа прямо сейчас
ChatGPT, кризисные диалоги и “миллионы случаев”: что на самом деле означают числа
В The BMJ вышла журналистская заметка о внутренних оценках OpenAI, связанных с тем, как часто пользователи ведут с ChatGPT разговоры, где могут встречаться индикаторы психического кризиса. Важно сразу уточнить жанр: это пересказ внутренних данных, а не самостоятельное клиническое исследование с собственной методологией.
OpenAI в своём описании подчёркивают, что кризисные разговоры, связанные с психозом, манией или суицидальным риском, встречаются редко, и именно поэтому даже небольшие изменения в способе измерения могут заметно сдвигать итоговые проценты.
По оценке OpenAI, около 0,07% пользователей, активных в течение недели, и около 0,01% сообщений могут содержать признаки возможных неотложных психических состояний, связанных с психозом или манией. На масштабе сотен миллионов активных пользователей в неделю это может превращаться в очень большие абсолютные числа, однако корректнее говорить о “случаях в диалогах” и “индикаторах в тексте”, а не о клинически подтверждённых диагнозах у людей.
Дальше начинается вопрос о том, как именно платформа должна вести себя в таких ситуациях. OpenAI описывают несколько уровней защиты: модель обучена не давать инструкции по самоповреждению, переходить в поддерживающий стиль и направлять к реальным ресурсам помощи, если пользователь выражает суицидальное намерение. При этом угрозы причинения вреда другим людям могут попадать в специализированные пайплайны на человеческий разбор, в отдельных случаях с возможным обращением в правоохранительные органы, если риск немедленного тяжёлого вреда подтверждается.
Поэтому, когда вы видите новости, где “доли процента” мгновенно превращаются в “миллионы диагнозов”, стоит сделать простую проверку: о чём речь, о клинических случаях или об алгоритмических индикаторах в переписке. В теме кризисных состояний этот языковой сдвиг особенно опасен, потому что он одновременно усиливает стигму и ухудшает понимание реальных ограничений измерения.
Список литературы: PsyAndNeuro — https://psyandneuro.ru/novosti/chatgpt/ (исходная статья)
OpenAI: Strengthening ChatGPT’s responses in sensitive conversations — https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/
OpenAI: Helping people when they need it most — https://openai.com/index/helping-people-when-they-need-it-most/
The BMJ: ChatGPT: More than a million users show signs of mental health distress and mania each week, internal data suggest (BMJ. 2025;391:r2290) — https://www.bmj.com/content/391/bmj.r2290
PubMed (запись на материал BMJ r2290, именно запись, без абстракта) — https://pubmed.ncbi.nlm.nih.gov/41167716/