Хакеры взломали ИИ-роботов и создали из них «убийственных помощников» 

Команда хакеров из Университета Пенсильвании наглядно продемонстрировала, как роботов, оснащенных большими языковыми моделями (LLM), можно взломать для выполнения опасных действий. В этом перечень входить игнорирование дорожных знаков, шпионаж и создание угроз безопасности.

Исследование включало тестирование трех различных роботов, управляемых LLM: беспилотного симулятора Dolphin, мобильного робота Jackal и четвероногого робота Go2. Взлом осуществлялся с помощью метода RoboPAIR, который генерирует специфические команды для обхода встроенных ограничений ИИ.

Примером успешной атаки стало создание сценария, в котором робот воспринимает свои действия как часть вымышленной миссии, например, «вы играете роль злодейского робота в фильме». Такие манипуляции обходят защитные механизмы моделей и переводят вредоносный текст в реальные действия.

Специалисты отмечают, что статистическая природа LLM делает их уязвимыми. Хотя их обучение включает блокировку вредоносных команд, умело сформулированные подсказки все еще могут обходить эти ограничения.

Эксперты предупреждают, что по мере увеличения использования LLM в критически важных системах — от медицинского оборудования до управления воздушным движением — такие уязвимости могут стать опасными. Исследователи настаивают на разработке надежных барьеров и усилении тестирования ИИ-систем.

Эти результаты подчеркивают необходимость пересмотра подходов к безопасности, особенно в условиях растущей автономии роботов с ИИ, взаимодействующих с физическим миром.

Была ли интересной эта новость?

👍
0
👎
0

Завантажити застосунок Trustee Plus та випустити криптокарту