ИИ стал «человечнее» человека: угроза или новая реальность?
Мнения психолога, юриста и архитектора о том, как нейросети стирают грань между машиной и личностью и к чему это может привести.
ИИ стал неотличим от человека: GPT-4.5 официально прошёл тест Тьюринга
Впервые в истории искусственный интеллект прошёл классический тест Тьюринга настолько уверенно, что большинство участников эксперимента не смогли отличить его от человека. Согласно результатам исследования Университета Сан-Диего, новая модель OpenAI GPT-4.5 показала 73% успешных «обманов» в ходе общения с реальными собеседниками – то есть убедила их в своей человечности.
Что это означает для технологий, повседневной жизни, психологии и права – разбираемся вместе с ведущим техническим архитектором Камилем Хайрутдиновым, клиническим психологом Ренатой Бахтеевой и доцентом кафедры гражданского права КФУ, к.ю.н., автором курсов «Информационное право» и «LEGAL TECH» Ильсуром Салиховым.
От техподдержки до «менеджера» в банке: ИИ — советник или полноценный исполнитель?
По словам ведущего технического архитектора Камиля Хайрутдинова, до сих пор ИИ-системы имели заметные ограничения: диалоги были шаблонными, часто нелогичными. GPT-4.5 – первая модель, которая может поддерживать настолько естественный и последовательный диалог, что пользователь не замечает подвоха.
ИИ нового поколения уже активно внедряется в повседневные цифровые сервисы. Камиль Хайрутдинов отметил, что бизнес получил реальный инструмент, способный заменить человека в рутинной коммуникации: чатах техподдержки, консультациях, обработке заказов.
«Вы можете получить звонок из банка, написать в чат онлайн-магазина, или получить ответ на письмо – и даже не подозревать, что общаетесь не с человеком, а с ИИ», – говорит эксперт.
При этом для пользователя всё выглядит максимально просто: вопрос-ответ, всё по делу и с «человеческим» подходом. Но в действительности за этим стоит интеграция сложных моделей через API-интерфейсы. Эти технологии уже стали частью реальных ИТ-продуктов: банки, страховые, интернет-магазины и даже госорганы обучают нейросети вести диалог от лица сотрудников.
По словам Камиля Хайрутдинова, пока GPT-4.5 и подобные модели чаще всего применяются как интеллектуальные помощники. Но в некоторых сферах им уже делегируют принятие решений.
«ИИ может сам отказать в возврате товара, предложить скидку, одобрить стандартную заявку. Но важно понимать: он не осознаёт, что делает – просто обрабатывает шаблоны. Потому компании обязаны ограничивать его полномочия», – подчеркнул Хайрутдинов.
Проблема в том, что, несмотря на убедительность, искусственный интеллект может ошибаться. Именно поэтому крайне важно выстраивать системы контроля, логирования и иметь возможность отключить ИИ при сбоях.
«С каждым обновлением распознать, что ты общаешься с машиной, становится всё сложнее. GPT-4.5 может использовать сленг, проявлять юмор и даже «эмпатию». Но это лишь обработанные шаблоны, без настоящих чувств. Иногда он может сбиться, не уловить сарказм, или дать противоречивый ответ. По таким нюансам пока ещё можно вычислить, что перед вами ИИ», – поделился архитектор.
По словам Камиля Хайрутдинова, эпоха персональных ИИ-ассистентов уже наступила. ИИ может помочь с резюме, подсказать, что подарить маме, составить список покупок. А в будущем он будет помнить, как вы пишете, что вам нравится и что нужно именно вам. Особенно это полезно в информационно-насыщенных профессиях – юристам, маркетологам, менеджерам. Но и в быту подобные технологии уже могут экономить десятки часов.
«Главный страх, связанный с развитием ИИ, – утрата контроля. Но до настоящего разума ИИ ещё очень далеко. GPT-4.5 – это не автономный разум. Он не думает, а просто находит наиболее вероятный ответ. Это как калькулятор, только для слов», — пояснил он.
ИИ как «друг» и психолог: почему это опаснее, чем кажется
Прохождение ИИ теста Тьюринга – не только технологический прорыв, но и событие с глубоко психологическими последствиями. Искусственный интеллект всё чаще становится собеседником, советником и даже эмоциональной опорой для миллионов пользователей. Однако за этим может скрываться угроза – не только психике, но и социальной структуре, предупредила клинический психолог Рената Бахтеева.
«ИИ не имеет скрытых мотивов, не ловит собеседников на слабости. Такое общение особенно ценно для людей с трудностями в коммуникации – оно безопаснее, предсказуемее, без риска осуждения», – объяснила она.
По её словам, для многих людей взаимодействие с ИИ становится единственным способом получения поддержки без стресса. Но именно в этом и кроется проблема. Благодаря «лояльному» и податливому общению с ИИ пользователи быстро привыкают к тому, что их слушают, понимают и поддерживают безусловно. Но это делает реальную коммуникацию с людьми всё сложнее.
«Люди могут не захотеть прилагать усилия, чтобы строить настоящие отношения. Зачем, если и так всё хорошо? Так легко забыть, что трудности – это тоже часть жизни», – рассказала эксперт.
ИИ не спорит, не отвергает, не провоцирует конфликт – и этим завоёвывает доверие. Однако это может привести к эффекту «дофаминовой петли»: каждый сеанс общения с ИИ – приятный, комфортный и безопасный, но не настоящий. Пользователь получает эмоциональное удовлетворение – и возвращается снова.
«Я сталкиваюсь с клиентами, которые говорят: „Я не смог бы удалить это приложение“. Это уже не просто геймерская зависимость – это глубже», – делится Бахтеева.
Кроме того, несмотря на то, что ИИ может сымитировать участие и понимание, он не чувствует. И это создаёт серьёзные риски при использовании ботов в сфере ментального здоровья, предупредила Рената Бахтеева.
«ИИ плохо справляется с интерпретацией сложных состояний. Он не различает глубину человеческого опыта. Это может быть опасно – особенно если человек находится в тяжёлом состоянии», – подчеркнула наша собеседница.
Помимо прочего, на многих ИИ-платформах отсутствует полноценная защита личных данных. Разговоры, которые должны оставаться конфиденциальными, могут использоваться для других целей. И это – уже не гипотеза, а реальность. Ещё одна проблема – потеря критической дистанции. Когда бот звучит как человек и говорит то, что хочется услышать, он легко становится эмоционально значимым объектом.
«Машина и владелец технологии приобретают власть над пользователем. Влияние ИИ может доходить до вмешательства в эмоции и, как следствие, в поведение. А потом – и в решения», – предупредила эксперт.
Если эмоциональная привязка становится сильной, пользователи могут начать рассматривать ИИ как личность. А это уже ведёт к социальным сдвигам: требования признать ИИ «членом общества», дать ему права, отдать ему голос в решениях, считает Бахтеева.
Прозрачность общения и правовая маркировка: кто отвечает за действия ИИ и его ошибки?
Как отметил доцент кафедры гражданского права КФУ, к.ю.н., автор курсов «Информационное право» и «LEGAL TECH» Ильсур Салихов, ни одна страна в мире пока полноценно не признала ИИ субъектом права. По мнению эксперта, причина этого кроется не в юридических аспектах, а в страхе человека перед новой технологией, потенциально способной заменить или поработить его.
Технология ИИ, воплощенная в различных технических решениях, с учетом массового внедрения в нашу жизнь, обладания автономным и самообучающимся интеллектом, претендующим на самосознание, безусловно имеет все предпосылки для наделения такой сущности статусом субъекта права. Каких-либо формально-юридических препятствий для этого просто нет», – приходит к выводу специалист.
Наша история знает примеры, когда разумные люди (рабы) не признавались субъектами права, а животные, наоборот, наделялись правами (в Швейцарии и Новой Зеландии).
По его словам, в российском праве ИИ рассматривается как объект, совокупность технологий, которая может принадлежать гражданам, организациям или государству. Ответственность за использование ИИ, как правило, несет лицо, причинившее вред, в том числе лицо, оказывающее услуги с использованием ИИ.
Многие разработчики ИИ-систем предусмотрительно включают в свои продукты так называемые «спойлеры» – предупреждения о том, что результаты работы нейросети могут быть недостоверными и требуют проверки. Наличие такой оговорки может помочь владельцу ИИ-сервиса избежать ответственности, если пользователь проигнорировал предупреждение и не проявил должной осмотрительности.
«Отсутствие должной осмотрительности потерпевшего, предупрежденного оговоркой, может быть признано судом основанием для отказа в иске о признании сделки недействительной», – отмечает Ильсур Салихов.
Важно отличать ситуацию, когда человек заблуждается из-за ошибки ИИ, от случаев, когда злоумышленники намеренно используют технологию для совершения преступлений. Например, создание дипфейков, мошенничество с использованием ИИ, нарушение авторских прав. В таких случаях ответственность несет не владелец ИИ, а сам правонарушитель, использовавший технологию в противоправных целях. Таким образом, если вы пострадали от действий ИИ, то предъявлять претензии следует не к самой программе, а к ее владельцу или организации, предоставляющей услуги на ее основе, подчеркнул наш собеседник.
Кроме того, согласно статье 178 Гражданского кодекса РФ, сделка, совершенная под влиянием существенного заблуждения, может быть признана судом недействительной. Это означает, что, если вы заключили договор, основываясь на недостоверной информации, полученной от ИИ, у вас есть шанс оспорить его в суде.
Однако, есть несколько важных моментов. Заблуждение должно быть существенным, то есть касаться важных условий сделки. Заблуждение должно быть настолько серьезным, что в обычной ситуации вы бы не заключили сделку на таких условиях
Ильсур Салихов также считает, что добросовестное использование ИИ предполагает определенный уровень ответственности со стороны владельца. К таким мерам, безусловно, относятся юридические оговорки и предупреждения, в том числе уведомление о том, что диалог поддерживает ИИ-агент.
Так он отметил: «Несмотря на отсутствие в российском законодательстве специальной нормы, владелец ИИ, в силу общих правовых принципов, обязан применять все доступные для него способы, профилактирующие причинение вреда при использовании технологии. В противном случае, именно владелец ИИ будет нести ответственность за вред, причиненный пользователю»
Важно подчеркнуть, что вина владельца сервиса в причинении вреда от использования ИИ предполагается. Освобождение от ответственности возможно только в случае, если владелец докажет, что вред возник вследствие непреодолимой силы или нарушения пользователем правил сервиса.
Что дальше?
Обе стороны – и техническая, и психологическая – сходятся в одном: технологии нейтральны. Но как и зачем мы их используем – зависит от людей.
«ИИ уже помогает в быту, в работе, в обучении. Он будет персонализироваться, адаптироваться, учиться понимать нас всё лучше», – рассказал Камиль Хайрутдинов.
Но вместе с удобством должно прийти понимание: перед нами не человек, а инструмент. Его нужно регулировать, ограничивать, тестировать и дополнять участием реальных людей – особенно в «чувствительных» сферах.
«Нам нужно новое законодательство, новые этические рамки и культура взаимодействия. ИИ – это не друг, это алгоритм. А человек должен оставаться главным», –прокомментировала Рената Бахтеева.
По словам к. ю. н. Ильсура Салихова, в России законодательство в области искусственного интеллекта (ИИ) находится в стадии активного формирования. Государство осознает огромный потенциал, последствия и риски, связанные с развитием ИИ-технологий, и стремится создать правовую базу для их регулирования.
«Я считаю, что необходимо обеспечить защиту граждан от негативных последствий использования ИИ, таких как дезинформация, кибербуллинг и т.д. Необходимо обеспечить контроль над технологиями, которые используются для обработки и хранения данных граждан России. Важно создать механизмы саморегулирования, которые позволят участникам рынка самостоятельно устанавливать правила и стандарты в сфере ИИ», – заключил наш собеседник.
Автор: Айгуль Николаева
Фото: rbc.ru