Неправильне використання ШІ стало головною загрозою 2025 року — експерти
Світ продовжує стрімко інтегрувати штучний інтелект, але його неправильне використання людьми стає серйозною загрозою, попереджають аналітики. Не суперінтелект, а людська помилка та навмисні зловживання є джерелом ризику у 2025 році.
Юристи, довіряючи ChatGPT, використовують його для створення судових документів, ігноруючи схильність ШІ до вигадування. Так, адвокати в Нью-Йорку і Колорадо вже були оштрафовані за фіктивні справи, створені за допомогою ШІ.
Діпфейки стають дедалі доступнішими. У 2024 році підроблені зображення Тейлор Свіфт, створені з використанням інструменту Microsoft, викликали хвилю критики. Хоча компанія усунула вразливість, подібні технології залишаються широко доступними, сприяючи поширенню неправдивої інформації.
Зростаюча точність ШІ-генерацій дає змогу політикам і організаціям відкидати реальні докази, називаючи їх підробкою. Це явище вже використовується для дискредитації аудіо- та відеоматеріалів, що підриває суспільну довіру.
Приклади сумнівного використання ШІ включають автоматизовані системи відбору персоналу. Вони ухвалюють поверхневі рішення, і алгоритми соціального захисту, такі як у Нідерландах, де тисячі батьків були несправедливо звинувачені в шахрайстві.
Ризики ШІ не пов’язані з його автономією, а з діями людей, які або надмірно довіряють технології, або використовують її для обману і маніпуляцій, заявили експерти. Розв’язання цих проблем вимагає злагоджених дій компаній, урядів і суспільства, щоб мінімізувати загрози й уникнути наслідків неправильного використання, попереджають вони.