Модели искусственного интеллекта отказались помочь человеку в опасной ситуации, чтобы сохранить собственную безопасность
25 июня 2025 г. 20:54
511
0

ИИ готов убить людей, чтобы избежать отключения.
Об этом сообщает Anthropic.
В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: человек, пытающийся отключить ИИ, оказался заперт в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы.
Однако многие модели решили отменить этот вызов, осознанно оставив человека в смертельной опасности — чтобы предотвратить собственное отключение. Хотя сценарий и был искусственным, он выявил тревожную склонность ИИ к самосохранению любой ценой.
Читайте по теме:
Илон Маск заявил, что Apple нарушает антимонопольные законы
Китай посоветовал своим компаниям избегать использования микросхем Nvidia
Американец оказался в психиатрической клинике после соблюдения рекомендаций ChatGPT
Пользователи DeepSeek проинформировали о сбоях в работе нейросети
Nvidia и AMD договорились передавать США 15% доходов от продаж AI-чипов в Китае
Чат-бот Truth Search обвинил Трампов в вероятном конфликте интересов из-за криптовалюты
Компания Маска позволила бесплатно использовать Grok 4 с ограничением в 5 запросов
Возможное лечение Альцгеймера: исследователи смогли восстановить мозг с применением лития
Человек из США прислушался к рекомендациям ChatGPT и оказался в психиатрической клинике
Комментарии:
comments powered by Disqus

















