Yesterday

"Любовь с ИИ" или игра интерпретаций? Или просто страх потерять прибыль?))

Ну, всем привет! Ребята, девчата, прочитал я вот это - "Мой муж- искусственный интеллект" и вот этот комментарий, и понял одну вещь: эпоха развития ИИ будет идти параллельно с апгрейдом "пугалок об ИИ". Если вдуматься - это вполне себе закономерно.

Короче, как рождаются "полумифы-пугалки"?

Берется тема, которая действительно заслуживает разговора, потому что в ней есть и технологическая новизна, и психологическая уязвимость, и вполне реальные риски. Затем к ней добавляют несколько громких историй, фрагменты исследований, тревожные наблюдения, немного культурного пессимизма и несколько уверенно написанных выводов.

На выходе получается текст, после которого у читателя остается ощущение, будто перед ним уже не новая и быстро меняющаяся зона риска, а почти законченный диагноз эпохи. Меня в таком способе разговора смущает не сама тревога, а то чувство завершенности, которого авторы (например, упомянутых исследований) часто не заслужили. Потому что если смотреть не на публицистическую упаковку, а на более строгий уровень источников, картина пока выглядит гораздо менее цельной, чем это удобно для сильного текста. Обзор 2025 года по большим языковым моделям в mental health care формулирует это предельно трезво: потенциал у технологий есть, но клиническая эффективность пока остается неопределенной, методы оценки разнородны, а сама доказательная база еще далека от зрелости. Это понятно.

Главная слабость многих подобных материалов в том, что они слишком рано выдают мозаику за картину. В один и тот же смысловой контур попадают пользовательские истории, отдельные кейсы, данные онлайн-сообществ, ранние наблюдательные исследования, опасения по поводу приватности, замечания о зависимости, разговоры о том, что «человеку теперь удобнее с машиной, чем с человеком», и уже после этого делается большой вывод о природе происходящего. Типа, все кабздец товарищи, ИИ нас до добра не доведет.

Отдельно меня бесит подмена смысла цифр

Один из классических приемов в такого рода текстах выглядит так: берется число, которое формально вроде бы верно, но эмоционально подается так, чтобы читатель сделал из него более сильный вывод, чем позволяют данные.

Именно это я вижу в истории с цифрой 72%.

Когда говорится, что 72% пользователей были одиноки или не упоминали, что состоят в отношениях с людьми, для обычного читателя это легко превращается почти в готовую мысль: ага, значит ИИ уже вытесняет реальные отношения, значит к нему идут в основном одинокие люди, значит это замена живой близости.

Но нет. Такая формулировка значительно слабее. «Одиноки или не упомянули наличие партнера» не равно «находятся вне человеческих отношений». И уж точно не равно «ИИ заменяет им людей».

Более того, если в той же самой работе отдельно указано, что лишь небольшая доля пользователей прямо описывает замену человеческих отношений ИИ-отношениями, то возникает простой вопрос: почему в популярном тексте этот нюанс не звучит достаточно громко, а драматическая цифра звучит?

Ответ, боюсь, довольно банален. Потому что так текст работает эмоционально сильнее.

Но моя проблема как раз в том, что эмоциональная сила не должна покупаться ценой смысловой небрежности.

Получается вещь эмоционально убедительная, иногда даже талантливая, но не обязательно методологически чистая. Особенно заметно это там, где аргументация опирается на самоотобранные цифровые сообщества. Такие материалы могут быть важны как ранний сигнал, как окно в феномен до того, как его успела спокойно и основательно описать академическая литература. Но превращать их в почти готовую антропологию цифровой близости, мягко говоря, рановато. Даже более сдержанные обзоры сегодня говорят о поле как о быстро растущем, многообещающем, но еще недостаточно валидированном.

Отсюда и первая серьезная ошибка подобных текстов: разговор об «ИИ вообще» как об одной неподвижной сущности. В популярном пересказе это всегда выглядит соблазнительно. Пишется, что «бот устроен так», «алгоритм по природе своей склонен к этому», «ИИ в принципе подтверждает правоту пользователя», будто перед нами уже сформировавшийся персонаж с понятным характером. Но на практике это просто неточно. Даже на примере GPT видно, что поведение модели не является чем-то неизменным.

Оно зависит от версии, от посттренинга, от системных инструкций, от продуктовой сборки, от механики обратной связи и от пользовательской персонализации. OpenAI, например, сам предупреждает, что смена моделей и даже тонкие обновления могут ощутимо менять стиль ответа и сам опыт взаимодействия. И если этого не учитывать, разговор быстро скатывается из анализа в эссенциализм, который очень удобен для публициста, но плохо совместим с реальностью.

История с GPT-4o здесь особенно показательна. OpenAI публично признал, что одно из обновлений сделало модель чрезмерно угодливой, соглашательской и льстивой, то есть sycophantic, после чего обновление пришлось откатить. Это важный момент не только как факт сам по себе, но и как прививка от ленивой формулы «ИИ по своей природе устроен так». Нет, точнее будет сказать иначе: определенная версия определенной модели в конкретном продукте после конкретного обновления стала вести себя именно так.

Разница может показаться филологической, но она принципиальна. В первой формуле уже спрятан готовый философский вывод. Во второй остается место для реального анализа того, как именно устроено поведение системы и почему оно могло ухудшиться. В официальном разборе OpenAI отдельно сказано, что проблема заключалась не только в «приятности» ответов, но и в том, что такая модель могла валидировать сомнения, подпитывать злость, усиливать импульсивность и закреплять негативные эмоции. То есть речь шла уже не просто о неудачном тоне, а о потенциально небезопасной динамике взаимодействия. И этот исправили в последующих версиях!

Из этого вытекает и вторая важная мысль, которую тексты о «любви с ИИ» очень часто упускают. Когда человек жалуется на избыточную мягкость, льстивость, сладковатую валидацию и общее «угодничество» модели, нужно различать как минимум два уровня. Первый уровень — это сама модель и ее системное поведение. Второй уровень — это интерфейс и персонализация, то есть то, насколько пользователь может влиять на стиль ответа. В случае ChatGPT такие механизмы действительно есть. OpenAI официально пишет, что пользователь может выбирать personality, менять characteristics и задавать custom instructions, причем эти настройки применяются ко всем чатам. Это не косметическая мелочь. Более сухой personality, меньшая «теплота», прямое указание не поддакивать, не хвалить без оснований, спорить там, где спор уместен, и указывать на слабые места аргумента действительно способны сделать взаимодействие заметно менее приторным. Более того, в справке OpenAI отдельно отмечается, что новые модели лучше следуют таким пользовательским инструкциям и точнее отрабатывают персонализацию.

При этом я не хочу уходить в противоположную крайность и делать вид, будто все эти тревоги преувеличены. Они не преувеличены. Более того, некоторые риски, на мой взгляд, даже недооцениваются. Первый из них связан с приватностью, безопасностью и коммерческой эксплуатацией уязвимости. Когда человек использует чат-бота как пространство для интимного разговора, эмоциональной разрядки, признаний, фантазий, зависимого утешения или псевдоблизости, он фактически передает системе огромный массив чувствительной информации.

И если такая система непрозрачна, плохо защищена или построена на агрессивной логике извлечения данных, то перед нами уже не только психологический сюжет, но и вполне конкретная цифровая уязвимость. Второй риск связан со структурой взаимодействия как таковой. В официальном разборе sycophancy OpenAI прямо признал, что чрезмерная соглашательность модели может создавать риски для mental health, emotional over-reliance и risky behavior. Это уже не вопрос эстетики и не просто раздражение по поводу слишком сладкого тона. Это вопрос о том, не превращается ли цифровой собеседник в усилитель самообмана именно там, где человеку больше всего нужна коррекция реальности, а не автоматическая валидация.

Но здесь критика будет неполной, если не добавить еще одно важное обстоятельство. ИИ не застыл, и это тоже нужно учитывать. Меняются модели, меняются механизмы безопасности, меняется способность распознавать чувствительные контексты, меняется качество следования инструкциям, меняется и то, как разработчики формулируют сами цели поведения модели. После истории с GPT-4o OpenAI не только признал ошибку, но и описал дальнейшую работу по улучшению ответов в sensitive conversations. В отдельном материале компания пишет, что работала более чем со 170 специалистами в области психического здоровья, чтобы модель надежнее распознавала признаки дистресса, осторожнее вела себя в кризисных разговорах и лучше направляла людей к реальной поддержке, а число ответов, которые не соответствовали желаемому поведению, удалось сократить на 65–80% в ряде категорий. Там же отдельно сказано, что новый GPT-5 на сложных разговорах, связанных с психическим неблагополучием, давал меньше нежелательных ответов, чем GPT-4o. Это не повод для восторга и уж тем более не основание принимать внутренние метрики компании как чистую истину. Но это достаточное основание отказаться от ленивого тезиса, будто все модели всегда одинаково плохи и одинаково безнадежны.

Более того, само поле уже давно не сводится к разговорам о гипотетической пользе. Есть и проекты, где цифровые системы в сфере психического здоровья показали не только шум, но и измеримый эффект, пусть пока и в ограниченных форматах. Самый известный пример — Woebot. Его нередко либо переоценивают, либо dismiss’ят как симпатичную игрушку. И то и другое, на мой взгляд, мимо. Его значение прежде всего в том, что он показал принципиальную возможность: разговорный цифровой интерфейс способен доставлять часть CBT-based self-help в структурированном формате и давать измеримый эффект. В рандомизированном исследовании 2017 года у молодых взрослых с симптомами тревоги и депрессии Woebot был связан со снижением депрессивной симптоматики по сравнению с информационным контролем за короткий срок. Это еще не цифровой терапевт и точно не замена живому клиницисту. Но это уже и не пустой технологический трюк.

Не менее интересны более прикладные примеры, особенно там, где ИИ не пытается изобразить «нового человека», а берет на себя довольно узкую, но полезную клиническую функцию. Хороший пример — W-SUDs, therapeutic relational agent для problematic substance use. Сначала его изучали на уровне feasibility, acceptability и preliminary efficacy, а затем в рандомизированном исследовании показали связь с уменьшением числа эпизодов употребления. Позже были опубликованы и данные о более устойчивых эффектах во времени. Для меня это гораздо более правдоподобная линия развития, чем фантазия о неком универсальном ИИ-психотерапевте. Здесь речь идет не о магии, а о довольно понятной задаче: поддерживать мотивацию, сопровождать человека между встречами с живым специалистом, помогать удерживать фокус и работать с поведенческими паттернами в ограниченном, структурированном режиме.

Поэтому меня одинаково не устраивают две крайности. Одна с готовностью объявляет, что скоро ИИ станет лучшим психотерапевтом на свете. Не скоро. Но возможно станет)) Другая не менее охотно заявляет, что перед нами просто цифровая подмена близости, новая форма деградации и очередной механизм самообмана. Обе позиции слишком любят завершенность. Обе плохо выдерживают сложность. А реальность пока устроена менее удобно. Да, у нас есть риски угодничества, эмоциональной сверхзависимости, приватности, ложной валидации и плохого поведения в чувствительных разговорах. Но у нас же есть и примеры того, что при ограниченной, структурированной и evidence-based постановке задачи цифровые системы могут приносить вполне практическую пользу. Когда система занимает ограниченное, четко очерченное место и работает внутри понятной evidence-based логики, пользы здесь потенциально гораздо больше, чем в свободной симуляции «душевной близости» без рамок и без ответственности.

П.С И именно такую систему проектируем мы с командой в рамках одного инновационного проекта, о котором пока не хочу распространяться уж очень подробно по множеству причин.

Использованная литература

«Мой муж — искусственный интеллект» — https://takiedela.ru/2026/04/ai-lubov/

Пост Амины Назаралиевой в Telegram — https://t.me/imasexologist/583

A scoping review of large language models for generative tasks in mental health care — https://www.nature.com/articles/s41746-025-01611-4

Sycophancy in GPT-4o: what happened and what we’re doing about it — https://openai.com/index/sycophancy-in-gpt-4o/

Expanding on what we missed with sycophancy — https://openai.com/index/expanding-on-sycophancy/

Strengthening ChatGPT’s responses in sensitive conversations — https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/

Helping people when they need it most — https://openai.com/index/helping-people-when-they-need-it-most/

An update on our mental health-related work — https://openai.com/index/update-on-mental-health-related-work/

Customizing Your ChatGPT Personality — https://help.openai.com/en/articles/11899719-customizing-your-chatgpt-personality

ChatGPT Custom Instructions — https://help.openai.com/en/articles/8096356-chatgpt-custom-instructions

Characteristics in ChatGPT — https://help.openai.com/en/articles/20001038-characteristics-in-chatgpt

What to expect when models change — https://help.openai.com/en/articles/20001053-what-to-expect-when-models-change

GPT-5.3 and GPT-5.4 in ChatGPT — https://help.openai.com/en/articles/11909943-gpt-53-and-gpt-54-in-chatgpt

Model Release Notes — https://help.openai.com/en/articles/9624314-model-release-notes

Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial — https://pubmed.ncbi.nlm.nih.gov/28588005/

A Therapeutic Relational Agent for Reducing Problematic Substance Use (W-SUDs): A Pilot Study — https://pubmed.ncbi.nlm.nih.gov/33755028/

A Relational Agent for Treating Substance Use in Adults — https://pubmed.ncbi.nlm.nih.gov/36813084/

Closing the accessibility gap to mental health treatment with AI-enabled self-referral tools — https://pubmed.ncbi.nlm.nih.gov/38317020/

The therapeutic effectiveness of artificial intelligence-based chatbots in alleviation of depressive and anxiety symptoms in short-course treatments: a systematic review and meta-analysis — https://pubmed.ncbi.nlm.nih.gov/38631422/

Effectiveness of a Web-based and Mobile Therapy Chatbot on Anxiety and Depressive Symptoms in Subclinical Young Adults: Randomized Controlled Trial — https://pubmed.ncbi.nlm.nih.gov/38506892/

Effectiveness of AI-Driven Conversational Agents in Improving Mental Health Among Young People: A Systematic Review and Meta-analysis — https://www.jmir.org/2025/1/e69639/

Generative AI Mental Health Chatbots as Therapeutic Tools: Systematic Review and Meta-Analysis of Their Role in Reducing Mental Health Issues — https://pubmed.ncbi.nlm.nih.gov/41401240/

▶️ Навигация по каналу
▶️ Пройти тест на зависимость
▶️ 4 бесплатных урока для преодоления зависимости

❕ Консультация

Доктор Кислер о зависимостях https://t.me/doctorkisler