1. Преминаване към съдържанието
  2. Преминаване към главното меню
  3. Преминаване към други страници на ДВ
НаукаГлобално

Изкуствен интелект: може ли той да "мисли" неутрално

20 януари 2023

На изкуствения интелект се възлагаха надежди, че ще действа без външни влияния или вътрешни предубеждения. Но тъй като човекът е създател на този нов вид "разум", той му предава и собствените си предразсъдъци.

https://p.dw.com/p/4MV8r
Все още няма напълно неутрален и лишен от предразсъдъци изкуствен интелект
Все още няма напълно неутрален и лишен от предразсъдъци изкуствен интелектСнимка: imago images/Imaginechina-Tuchong

Лицевото разпознаване чрез изкуствен интелект (ИИ)  работи добре при бели мъже, но не и при тъмнонокожи жени. Това е един от класическите проблеми на тази нова област, които напоследък станаха известни. В участието си за "Тед толк" тъмнокожата Джой Буламвини демонстрира резултатите от собствения си експеримент. Софтуерът за лицево разпознаване просто не може да я регистрира правилно. И едва след като си слага бяла маска, очертаваща само основните ѝ лицеви характеристики - уста, нос, очи - технологията я разпознава.

Буламвини прави обзор на различен софтуер за лицево разпознаване, включително на АйБиЕм и Майкрософт. Те разпознават всякакви лица, но допускат значително повече грешки при определяне на пола на жените и хората с тъмна кожа. Ако при белите мъже грешките са около 1 процент, то при тъмнокожите жени те стигат до 35 процента.

Проблемът не е в технологията, а в това кой я разработва и в методите, по които тя е обучавана. Броят на белите мъже, участващи в създаването на изкуствения интелект, е доста над средния. От друга страна, делът на жените в IТ сектора през 2021 г. е бил едва 18 процента.

Екипите, създаващи ИИ, са твърде хомогенни

Разработчиците на изкуствен интелект често просто не обръщат достатъчно внимание на групите, които не са достатъчно представени в техните екипи. Така характеристики, които са много важни за разпознаването, например на женско или тъмнокожо лице, могат да останат пренебрегнати. Затова и не е изненадващо, че настоящите софтуери за лицево разпознаване се справят най-добре с белите мъже.

Ксения Кеплингер, която ръководи изследователска група в Института за интелигентни системи "Макс Планк", коментира, че това не се прави съзнателно, например за да бъдат изключени жените или малцинствата. Тя допуска, че разработчиците просто може да не са взели предвид всички групи хора.

Пропуски и в базите данни 

Кеплингер отличава и друга важна причина за предразсъдъците на изкуствения интелект - конкретните бази данни, с които той е бил захранван. При обучението за разпознаване, на системата се показват хиляди, десетки хиляди или много повече изображения на хора. Именно върху тази основа ИИ научава кои индивидуални черти съставят човешкото лице. Подобни бази данни могат да се закупят.

Проблемът е, че те обикновено не са особено разнообразни. Белите мъже често са непропорционално високо представени в тях. Затова е и обяснимо, че ИИ е научен да разпознава най-добре техните лица.

Обучението с исторически данни е проблематично

Ако даден изкуствен интелект е бил обучаван с историографски данни, той е възприел и пристрастията, които те са отразявали. Така например алгоритъм, който трябва да реши кои кандидатури за работа да подбере, ще представи отговорите си въз основа на данни за успешни служители на компанията от миналото. Същевременно, назад във времето, в почти всички сфери е имало ясно изразено предпочитание към мъже. И вероятно за изкуствения интелект те биха представлявали по-добри кандидати и днес.

Вече са известни редица слабости на метода за лицево разпознаване
Вече са известни редица слабости на метода за лицево разпознаванеСнимка: Imago/J. Tack

В същото време мигрантите в неравностойно положение биха били посочени като "по-неподходящи". Съответно се появява и рискът животът им отново да се завърти в познатата спирала от миналото.

С по-добри бази данни и по-разнообразни екипи за разработка би могло да се създаде и по-неутрален изкуствен интелект. Но не е възможно да има такъв, който е напълно свободен от предразсъдъци, смята Кеплингер. Тъй като хората винаги ще имат своите предпочитания, изкуствените интелекти също ще бъдат обучени на тях. Затова, според нея, където и когато е възможно хората сами трябва да проверяват резултатите от алгоритмите на ИИ, вместо сляпо да им се доверяват.

Вижте и нашата снимкова галерия:

Прескочи следващия раздел Повече по темата

Повече по темата

Покажи още теми