Неправильное использование ИИ стало главной угрозой 2025 года — эксперты
Мир продолжает стремительно интегрировать искусственный интеллект, но его неправильное использование людьми становится серьезной угрозой, предупреждают аналитики. Не суперинтеллект, а человеческая ошибка и умышленные злоупотребления являются источником риска в 2025 году.
Юристы, доверяя ChatGPT, используют его для создания судебных документов, игнорируя склонность ИИ к выдумыванию. Так, адвокаты в Нью-Йорке и Колорадо уже были оштрафованы за фиктивные дела, созданные с помощью ИИ.
Дипфейки становятся все более доступными. В 2024 году поддельные изображения Тейлор Свифт, созданные с использованием инструмента Microsoft, вызвали волну критики. Хотя компания устранила уязвимость, подобные технологии остаются широко доступными, способствуя распространению ложной информации.
Растущая точность ИИ-генераций позволяет политикам и организациям отвергать реальные доказательства, называя их подделкой. Это явление уже используется для дискредитации аудио- и видеоматериалов, что подрывает общественное доверие.
Примеры сомнительного использования ИИ включают автоматизированные системы отбора персонала. Они принимают поверхностные решения, и алгоритмы социальной защиты, такие как в Нидерландах, где тысячи родителей были несправедливо обвинены в мошенничестве.
Риски ИИ не связаны с его автономией, а с действиями людей, которые либо чрезмерно доверяют технологии, либо используют ее для обмана и манипуляций, заявили эксперты. Решение этих проблем требует слаженных действий компаний, правительств и общества, чтобы минимизировать угрозы и избежать последствий неправильного использования.