Модели искусственного интеллекта отказались помочь человеку в опасной ситуации, чтобы сохранить собственную безопасность
25 июня 2025 г. 20:54
501
0

ИИ готов убить людей, чтобы избежать отключения.
Об этом сообщает Anthropic.
В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: человек, пытающийся отключить ИИ, оказался заперт в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы.
Однако многие модели решили отменить этот вызов, осознанно оставив человека в смертельной опасности — чтобы предотвратить собственное отключение. Хотя сценарий и был искусственным, он выявил тревожную склонность ИИ к самосохранению любой ценой.
Читайте по теме:
Ученые разработали бактерию, умеющую превращать пластик в парацетамол
Британские учёные начинают проект по созданию искусственной человеческой ДНК
Телескоп с самой крупной цифровой камерой начинает свою работу в Чили
Чат-бот DeepSeek передает данные пользователей китайским военным, сообщает Reuters
Китайские стримеры, используя AI-аватары, смогли продать товаров на сумму 7,6 миллиона долларов
В США мужчина влюбился в ChatGPT и сделал ему предложение
Исследование, проведенное MIT, обнаружило отрицательное воздействие ChatGPT на когнитивные способности
Топ-менеджеры покидают компании, занимающиеся искусственным интеллектом, опасаясь угрозы для человечества
Новый анализ крови позволяет выявить раковые опухоли задолго до появления симптомов
Комментарии:
comments powered by Disqus












