Чому штучний інтелект має расистські і сексистські упередження — відповідає AI-помічник від Google

Політика

Багато користувачів сервісів на базі штучного інтелекту помічають, що інструмент з ШІ іноді може видавати відверто расистські або сексистські відповіді на запити чи створювати контент із упередженнями. Медіа UA.NEWS розпитало помічника Google Gemini, який працює на основі штучного інтелекту, чому ШІ-інструменти транслюють расизм чи сексизм.

У своїй відповіді AI-помічник Gemini пояснив, що причина у даних, на яких навчається штучний інтелект. Якщо йому згодувати дані із упередженнями, то ШІ буде їх видавати. Повна відповідь Gemini щодо стереотипів, які транслює штучний інтелект, звучить так:

ШІ може мати расистські або сексистські упередження через те, що він навчається на даних, які містять ці упередження, відображаючи реальні соціальні нерівності та стереотипи, присутні в суспільстві

Gemini

AI-помічник 

Повну розмову нашого медіа зі штучним інтелектом можна подивитись за посиланням.

Читайте також:Штучний інтелект допоможе лікарям знаходити зламані кістки

Штучний інтелект Apple Intelligence почнуть розгортати вже цього місяця

Залишити відповідь