Google відмовляється від категорій "чоловік" і "жінка" при розпізнаванні фото

Google відмовляється від категорій "чоловік" і "жінка" при розпізнаванні фото - Фото
Фото: i-com.org
20.02.2020, 17:40

Штучний інтелект Google не буде використовувати гендерні мітки при розпізнаванні фотографій з людьми. Він буде ставити нейтральне "людина"

Штучний інтелект Google, який використовується програмістами для розпізнавання об'єктів на зображеннях, більше не буде розподіляти людей на чоловіків і жінок. Це рішення прийняли тому, що гендер неможливо визначити за зовнішностю, пише Business Insider.

Сервіс Google Cloud Vision API надає інструмент, що дозволяє розробникам автоматично отримувати текстовий опис вмісту на зображеннях. Він може розпізнавати обличчя, знаки, логотипи брендів, тварин і таке інше. Інструмент застосовується в комерційних і наукових цілях, наприклад, для розпізнавання зображеної на фото тварини.

В офіційному листі Google повідомив, що не використовуватиме гендерні мітки. Для опису знімків людей буде використовуватися нейтральне позначення "людина". У компанії пояснили таке рішення тим, що гендер неможливо визначити, спираючись тільки на зовнішність. Також привласнення гендера може погіршити упередженість штучного інтелекту.

  • У січні стало відомо, що Google хоче заборонити, Microsoft - дозволити. Президент Microsoft Бред Сміт заперечив президенту Google Сундару Пічаю, що розпізнавання осіб штучним інтелектом не можна забороняти.
  • Вінницький стартап IncoreSoft розробив систему автоматичного розпізнавання номерних знаків автомобілів та осіб людей у громадських місцях. Вінницька влада протягом п'яти місяців користуються системою в місті.
  • У лютому 2019 року в міських відеокамерах Києва ввмікнули розпізнавання облич. Модуль увімкнено в пілотному режимі і він покликаний полегшити роботу силовиків у пошуку злочинців.
Упередженість штучного інтелекту є однією з широко обговорюваних тем щодо цієї технології. Експерти висловлюють думки, що неправильні набори даних можуть привести до збільшення або створення нечесних припущень. Популярний приклад - алгоритми розпізнавання особи частіше демонструють неправильну роботу з людьми, у яких колір шкіри відрізняється від білого.
Популярне