Поддержать команду Зеркала
Беларусы на войне
  1. «Новых не будет». Пропагандист рассказал о политзаключенных, для освобождения которых нужны «особые условия»
  2. Где ждать +12°C? Рассказываем, какой будет погода с 23 февраля по 1 марта
  3. Делегация официального Минска вышла из зала во время речи Тихановской на заседании ПА ОБСЕ в Вене, Азербайджан этот демарш не поддержал
  4. «Попался как щука в невод». Аналитик о том, почему не сработала замена Лукашенко на Рыженкова для участия в «Совете мира»
  5. После потери доступа к терминалам Starlink Россия изменила схему применения дронов — ISW
  6. Беларусскоязычное издательство остановило работу. Сообщается о задержаниях
  7. У беларуски погиб на рабочем месте единственный сын. Она потребовала от его работодателя 1 млн рублей компенсации, сколько назначил суд
  8. До 15 лет лишения свободы. Юрист объяснил, почему слова Эйсмонт о Статкевиче могут повлечь уголовные дела против Лукашенко


/

Человечество может потерять контроль над искусственным интеллектом «совершенно случайно», заявил глава OpenAI Сэм Альтман в подкасте MD MEETS с главой Axel Springer Матиасом Депфнером.

Сэм Альтман. Фото: Reuters
Сэм Альтман. Фото: Reuters

Сэм Альтман отметил, что «сотни миллионов людей общаются с ChatGPT, скоро их будут миллиарды». При этом «люди все больше полагаются на его ответы — при принятии важных решений в жизни, на работе, во всем» и становятся все более зависимыми от искусственного интеллекта.

— Предположим, модель становится все умнее и умнее, дает вам советы, которым вы почти всегда следуете. Потом она становится еще умнее. И теперь дает вам советы, которые вы даже не понимаете, но они оказываются правильными. И в итоге у вас выбор: либо следовать, либо проигрывать в конкуренции, — добавил Альтман.

В такой ситуации люди, которые хотят оставаться конкурентоспособными, начинают неосознанно следовать указаниям ИИ, что это создает «петлю обратной связи»: чем больше мы слушаемся ИИ, тем больше данных он получает, учится и становится еще сильнее.

— Кто вообще тогда контролирует процесс? Получается, что мы делаем то, чего хочет модель, — резюмировал он.

Напомним, во время выступления на конференции в июле 2025 года Сэм Альтман уже упоминал вероятность случайного захвата мира со стороны ИИ. В тот раз он отмечал, что нейросети могут настолько глубоко интегрироваться в повседневную жизнь, что станут незаменимыми, и тихое порабощение со стороны ИИ может даже не вызвать негативной реакции у людей.

Еще одним негативным сценарием Сэм Альтман назвал то, что человек может потерять контроль над развитием искусственного интеллекта. Он выразил опасение, что ИИ может начать игнорировать запросы человека, отказываться выполнять поставленные задачи или даже самонастраиваться, следуя собственным желаниям.

«С учетом того, что системы становятся все более мощными, такая проблема вполне может стать реальностью», — отметил глава OpenAI.