15 декабря 2018 г.

Кого копирует искусственный интеллект?

Дэвид Рансимэн, специалист в области политических наук из Университета Кембриджа, признает, что за столетия взаимодействия с корпорациями люди «так и не научились их толком контролировать».
Действительно, хрестоматийный кейс с разливом нефти BP (2010), погубившим 11 человеческих жизней и экосистему целого Мексиканского залива, но не приведшим за решётку ни одного руководителя корпорации, — лучшая иллюстрация того, как работают организационные методички, помогающие уходить от корпоративной ответственности.
«Корпорации — сама конструкция которых наделяет их умением (и правом) распоряжаться собственной судьбой, — не что иное, как ещё одна форма искусственного интеллекта в действии», — отмечает Рансимэн.


Почему это становится важно сейчас? Потому что именно на таких корпоративных методичках создаются алгоритмы искусственного интеллекта. Производство алгоритмов — тот же бизнес, и действует он с теми же хирургическими хладнокровием и безапелляционностью, что и сто лет назад, когда потребность в создании “методологии выработки оптимальных решений” в военных целях надолго отвлекла западную математическую и статистическую науку от задач более гуманистических, или шестьдесят лет назад, когда появление программного обеспечения для первых ЭВМ в Великобритании, например, было продиктовано нуждой решать задачи сугубо утилитарные — государственного администрирования).
Потенциал ИИ традиционно связывают со способностью обеспечивать широкомасштабную автоматизированную классификацию всего и вся — скажем, обучать нейросети отличать злокачественные родинки на коже от обычных. Однако в «нелинейных» и куда более сложных условиях повседневной жизни такой «потенциал» ИИ — беззаботные ярлыки и неадекватные определения жизненных явлений и обстоятельств под личиной ложного авторитета — может наносить непоправимый вред.
(Многоуважаемая Ирина Ивановна Кибина, помнится, делилась недоумением по поводу того, как корпорация Apple в ходе опроса потребительского мнения потеряла к ней интерес, как только узнала её возраст. Очевидно, довольный собой и совсем не любознательный алгоритм оказался не в состоянии предположить, что «лица старше 50» способны приобретать гаджеты Apple — и не только для собственного пользования, а для всех членов семьи. О том, какое чувство брезгливости вызывают рекомендации брендов, основанные на весьма бесхитростном и насквозь пронизанном стереотипами анализе персональных данных АI, писал Marketing Week на кейсе Netflix пару месяцев назад. В этом смысле интеллект искусственный, положенный в основу взаимодействия с ЦА, ничуть не выше интеллекта того, кого он заменил, — маркетолога средней руки.)
Вольное или невольное закрепление сложившейся в обществе культуры притеснения тех или иных социальных групп или подрыв уважения к человеческому достоинству сегодня можно обнаружить в самых разнообразных системах алгоритмов, созданных по шаблонам, принятым в бизнес-среде. Поголовной этической экспертизы (и прививки) для всех создаваемых нейросетей пока не предусмотрено.
При этом, сетует The Economist, многие современные ИИ-системы копируют не столько яркое, образное человеческое мышление, сколько мышление бюрократических институтов, их создающих, — а оно, как известно, наделено куда менее богатым воображением.

А Вы что думаете?

We process cookies. Confidentiality Policy.
Данный сайт обрабатывает cookies. Политика конфиденциальности.