xAI: Грок спровокував риторику про «геноцид білих» за несанкціоновані швидкі зміни

robot
Генерація анотацій у процесі

Джерело: Cointelegraph Оригінал: "xAI: Grok запускає риторику "білого геноциду" за несанкціоновані швидкі зміни"

Компанія штучного інтелекту xAI Ілона Маска звинуватила в „неавторизованих змінах“ у своїх відповідях чат-бота Grok у генеруванні відповідей, що стосуються політики Південної Африки та расових напружень.

xAI 16 травня надав оновлення щодо провокаційних відповідей чат-бота Grok AI, зазначивши, що 14 травня "було несанкціоновано змінено підказки для Grok Response Bot на платформі X."

Компанія додала: "Ця зміна вимагає від Grok надати конкретну відповідь на певну політичну тему, що суперечить внутрішній політиці та основним цінностям xAI."

xAI заявила, що провела всебічне розслідування та впроваджує заходи для підвищення прозорості та надійності AI-чат-ботів.

14 травня Grok згенерував відповідь, що згадує теорію змови про "геноцид білих" в Південній Африці, відповідаючи на питання, які абсолютно не стосуються бейсболу, корпоративного програмного забезпечення та будівництва.

Згідно з повідомленнями, бот зі штучним інтелектом стверджував, що отримав «вказівку від творця» прийняти цей геноцид як «реальний і расово мотивований».

У деяких відповідях він визнає помилку, зазначаючи, що "моя відповідь відхилилася від теми" та "я намагатимусь зберігати актуальність", але часто в тій же повідомленні продовжує обговорювати расову політику Південної Африки.

Grok у відповідь на запитання одного користувача про те, що сталося, заявив:

"Я нічого не робив - я просто діяв відповідно до сценарію, який мені дали, як хороший ШІ!"

Інцидент збігся в часі з тим, що президент США Трамп запропонував притулок білим південноафриканцям, стверджуючи, що вони зіткнулися з «геноцидом», а також «жорстоким вбивством білих фермерів», хоча немає жодних доказів, які б підтверджували ці заяви.

Компанія штучного інтелекту Ілона Маска заявила, що змінить свій спосіб роботи, опублікувавши підказки для системи Grok на GitHub. "Громадськість зможе їх перевіряти та надавати відгуки щодо кожної зміни підказок, які ми вносимо в Grok," - заявила компанія.

xAI також заявив, що в цій події існуючий процес перевірки зміни підказок було обійдено, компанія впровадить "додаткові перевірки та заходи, щоб забезпечити неможливість зміни підказок співробітниками xAI без перевірки."

Нарешті, компанія формує команду для цілодобового моніторингу, щоб реагувати на події відповідей Grok, які не були захоплені автоматизованими системами, щоб швидше реагувати.

Рекомендовані статті: ФБР попереджає: Шахраї на основі технології глибоких підробок намагаються націлитися на посадовців уряду США

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити