В США ученые Принстонского университета выяснили, что искусственный интеллект может проявлять признаки расизма, пишет о данных исследования Daily Mail.
В работе использовали систему самообучаемого искусственного интеллекта GloVe. Она развивается при помощи анализа сетевых текстов и отмечает семантическую связь между словами. В задании на ассоциации система должна была подобрать слову типа «цветок» или «насекомое» другие слова, которые ученые определили как «приятные» и «неприятные», например, «семья» или «авария».
Когда речь дошла до имен, то специалисты были поражены реакцией робота. Имена белых людей он маркировал как «приятные», а популярные среди афроамериканцев имена относил к категории «неприятных» слов.
По мнению ученых, результаты этих исследований говорят о том, что язык сам по себе несет постоянно используемые и точные отпечатки наших предрассудков.