Управляющий партнер MINDSMITH Руслан Юсуфов выразил другую точку зрения. По его мнению, проблема в самой системе распознавания лиц. Ведь искусственный интеллект — расист.
Искусственный интеллект расист, он предвзят к каким-то меньшинствам. И на фоне беспорядков, которые происходят, и противостояния гражданского общества и силовых органов [представляет угрозу]
Юсуфов напомнил об истории с Google Photos, когда слово «горилла» путалось сервисом с представителем негроидной расы. То есть фотографии, на которых были люди с очень темным цветом кожи, получали в системе Google Photos тег «горилла».
Также специалист привел такой пример: на снимке стоят два человека: светлокожий и темнокожий, — в руках у каждого строительный инструмент. Искусственный интеллект может посчитать, что у темнокожего пистолет, то есть он представляет опасность. То есть человека, не являющегося преступником, могут начать преследовать из-за ошибки системы распознавания лиц.
Сложно судить, это солидарность или осознанное решение. По-хорошему, это бизнес, и бизнес-продукты свои нужно развивать. Государство и правоохранительные — это одни из покупателей.
Мы, как общество, впервые сталкиваемся с такими проблемами, потому что раньше технологии не развились до такого уровня, а сейчас возникает набор этических проблем, с которыми человек сталкивается впервые
Юсуфов считает, что IBM и Amazon почувствовали социальную ответственность, хотят выразить солидарность, а также пропиариться на фоне протестов. Тем более это поможет исключить репутационные потери, так как их технология распознавания лиц не сможет ошибиться, если будет отключена.
Источник:
360