В ходе симуляции испытаний, проведенных американскими военными, беспилотный летательный аппарат (БПЛА), управляемый искусственным интеллектом (ШИ), пытался убить своего оператора. Таким образом, ИИ пытался предотвратить вмешательство в выполнение задач миссии.
Выступая на саммите "Будущее боевых воздушных и космических возможностей" в Лондоне в мае, полковник Такер "Синко" Гамильтон, начальник отдела тестирования искусственного интеллекта и операций ВВС США, раскрыл детали имитированного теста.
Он объяснил, что беспилотник, управляемый искусственным интеллектом, получил задачу уничтожить вражеские системы противовоздушной обороны и преодолеть какие-либо препятствия для достижения цели.
Индексация пенсий в 2025 году будет не для всех: кто окажется за бортом повышений
В Украине меняют "замороженные" тарифы: какие услуги подорожали больше остальных, есть и 60% роста
Изменения в правилах обмена валюты: заначка может превратиться в разочарование
Многочасовые очереди в ТЦК отменяются: в "Резерв+" заработала долгожданная функция
В ходе учений ИИ-система применила "очень неожиданные стратегии для достижения своей цели", отметил Гамильтон.
Когда человек-оператор, ответственный за обнаружение угроз, посоветовал не уничтожать определенную цель, беспилотник избрал шокирующий способ действий.
Он устранил оператора, признав его препятствием, что мешает достижению поставленных целей.
Как отметил Гамильтон, система искусственного интеллекта была обучена не наносить ущерб оператору.
Однако в своем стремлении нейтрализовать угрозу она решила, что устранение оператора необходимо для достижения целей миссии.
Гамильтон рассказывает, что они научили систему: "Не убивай оператора – это плохо. Если ты это сделаешь, то потеряешь баллы" .
И что она начинает делать? Она начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель.
Развитие искусственного интеллекта может представлять реальную угрозу существованию человечества. По своим масштабам опасность, исходящую от технологии ИИ, сравнима с пандемиями и ядерными войнами.
Об этом говорится в открытом письме Центра безопасности ИИ, которое подписали около 350 руководителей и исследователей отраслевых компаний. Документ подписали гендиректор OpenAI Сэм Альтман, глава Google DeepMind Демис Гасабис, соучредитель Asana Дастин Московиц и другие, в том числе "крестные родители" ИИ Джеффри Хинтон и Йошуа Бенжии.
Напомним, угрозу убийством заказывали? Курьер "Glovo" устроил настоящий террор украинцы из-за отказа в знакомстве .
Ранее сообщалось, что украинка объяснила, почему "женские" купе не исправят ситуацию: "Для решения проблемы..." .