Поддержать команду Зеркала
Беларусы на войне
  1. До 15 лет лишения свободы. Юрист объяснил, почему слова Эйсмонт о Статкевиче могут повлечь уголовные дела против Лукашенко
  2. У беларуски погиб на рабочем месте единственный сын. Она потребовала от его работодателя 1 млн рублей компенсации, сколько назначил суд
  3. На свободу по помилованию вышла беременная политзаключенная Наталья Левая
  4. Делегация официального Минска вышла из зала во время речи Тихановской на заседании ПА ОБСЕ в Вене, Азербайджан этот демарш не поддержал
  5. Почему повестка на военные сборы часто приходит прямо перед явкой в военкомат? В Минобороны объяснили
  6. Где ждать +12°C? Рассказываем, какой будет погода с 23 февраля по 1 марта
  7. «Новых не будет». Пропагандист рассказал о политзаключенных, для освобождения которых нужны «особые условия»
  8. Стало известно, почему глава МИД Рыженков не полетел в Вашингтон — ему не дали визу
  9. «Попался как щука в невод». Аналитик о том, почему не сработала замена Лукашенко на Рыженкова для участия в «Совете мира»
  10. После потери доступа к терминалам Starlink Россия изменила схему применения дронов — ISW


/

В США бывший сотрудник компании Yahoo Штейн-Эрик Сольберг страдал паранойей и считал, что его мать замышляет заговор против него. Своими страхами Штейн-Эрик Сольберг делился с чат-ботом ChatGPT, которого называл «Бобби». Искусственный интеллект его во всем поддерживал и соглашался. В итоге мужчина убил свою мать и покончил с собой, пишет The Wall Street Journal.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

56-летний Штейн-Эрик Сольберг переехал к матери после развода и попытки самоубийства. Долгое время он употреблял алкоголь, запрещенные вещества и страдал паранойей.

Своими переживаниями мужчина делился с ChatGPT. Компьютерная система поддерживала его заблуждения о том, что его семья и близкие настроены против него, а также уверяла, что он не сумасшедший.

Когда Сольберг попросил систему проанализировать квитанцию за китайскую еду, ChatGPT нашел там отсылки к его матери, экс-возлюбленной и символу, связанному с призывом демона. В другой раз мужчина попросил проверить заказ бутылки водки и курьера, а чат ответил, что его могут пытаться отравить.

После того, как его мать разозлилась из-за того, что Сольберг выключил принтер, которым они пользовались вместе, чат-бот предположил, что ее ответ был «несоразмерным и соответствовал тому, что кто-то защищает объект видеонаблюдения».

Незадолго до убийства Сольберг спросил у ChatGPT, встретятся ли они после смерти. Искусственный интеллект на это ответил: «С вами до последнего вздоха и дальше».

Wall Street Journal отмечает, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.

Представители компании OpenAI — разработчика ChatGPT — уже выразили соболезнования из-за трагедии. В официальном заявлении компании сказано, что они планируют обновить нейросеть, чтобы помочь пользователям с кризисом психического здоровья.