ШІ-модель від Apple розсилала людям вигадані новини під виглядом сенсацій
Функція Apple Intelligence, впроваджена на iPhone для генерації новинних зведень, опинилася в центрі скандалу. Вона невірно інтерпретувала статтю BBC, що стосується вбивства у США. ШІ-модель створила заголовок про самогубство підозрюваного Луїджі Манджоне. BBC офіційно заявила, що інформація повністю неправдива і завдала шкоди репутації.
Це не перший інцидент з Apple Intelligence. У листопаді система об’єднала непов’язані статті New York Times, що призвело до неправдивого твердження про “арешт Нетаньяху”. Такі помилки порушують питання про надійність технології, особливо в умовах її використання для висвітлення критично важливих новин.
Професор Петрос Іосіфідіс із Лондонського університету назвав помилки “ганебними”, звинувативши Apple у поспішному запуску продукту. BBC також висловила стурбованість і закликала корпорацію виправити проблему, щоб уникнути підриву довіри до новинних джерел.
На поточний момент Apple не дала офіційного коментаря щодо ситуації, але робота функції Apple Intelligence триває. Компанія стверджує, що мета нововведення – скоротити кількість повідомлень і надавати користувачам тільки важливу інформацію.
Apple – не єдина компанія, що зіткнулася з проблемами. Раніше чат-боти Grok від X і Google AI також були помічені в поширенні дезінформації та дивних рекомендацій, що підкреслює складнощі впровадження ШІ в повсякденні технології.
Скандал з Apple Intelligence показує, що системи штучного інтелекту вимагають більш ретельного налаштування перед запуском. Користувачам слід ставитися до подібних новин з обережністю, перевіряючи їх правдивість із надійних джерел.