Facebook просить вибачення за «расистський» штучний інтелект: той позначив чорношкірого як "примата"

Всі ми, зрештою, примати в черевиках – але скандал у тому, як штучний інтелект не зміг упізнати в людині людину.

Штучний інтелект буває расистом і сексистом. Але він вже визначає, кого брати на роботу, як лікувати і чи арештовувати

Після того, як користувачі соцмережі дивилися відео з чорношкірим чоловіком, алгоритм питав, чи хотіли б вони "й надалі дивитися відео про приматів", – передає New York Times.

Facebook заявив, що це була неприпустима помилка штучного інтелекту, й люди вимкнули всю рекомендацію на основі тем після її виявлення.

03facebook-2-superJumbo.jpg

Скриншот рекомендації.

На відео йшлося про те, як білий чоловік викликав поліцію на чорношкірих.

Як відомо, у 2015 році Google теж мусив просити вибачення, коли його застосунок помилково визначив чорношкірих людей як горил. Згодом чатбот Microsoft під назвою Tay навчився від людей расистських зауважень, і його мусили відключити.

Як показує дослідження, штучний інтелект часто навчається від людей, які задають у нього дані – і при цьому ПОСИЛЮЄ їхні упередження. Як правило, штучний інтелект найбільше вчиться від "білих чоловіків середнього та вищого достатку", які є інженерами.

суспільство технології штучний інтелект расизм Facebook скандал соцмережі

Знак гривні
Знак гривні