UncategorizedгаджетыНовостиразработчиктехнология

Исследование предполагает, что этический ИИ не получит широкого распространения к 2030 году

Повысьте уровень технологий и стратегии корпоративных данных на Transform 2021.


Согласно новому отчету, опубликованному исследовательским центром Pew Research Center и Imaging the Internet Center Университета Илона, эксперты сомневаются, что этичный дизайн ИИ получит широкое распространение в течение следующего десятилетия. В опросе 602 технологических новаторов, руководителей бизнеса и политики, исследователей и активистов большинство обеспокоено тем, что эволюция ИИ к 2030 году будет по-прежнему сосредоточена в первую очередь на оптимизации прибыли и социальном контроле, и что заинтересованные стороны будут бороться за достижение консенсуса в отношении этика.

Этичное внедрение ИИ означает разные вещи для разных компаний. Для некоторых «этичный» означает внедрение ИИ, которому люди от природы склонны доверять, даже если он злонамерен, прозрачным, ответственным и подотчетным образом. Для других это означает обеспечение соответствия использования ИИ законам, постановлениям, нормам, ожиданиям клиентов и ценностям организации. В любом случае «этичный ИИ» обещает защитить себя от использования предвзятых данных или алгоритмов, обеспечивая уверенность в том, что автоматизированные решения оправданы и объяснимы.

Университет Пью и Илона спросил участников опроса: «К 2030 году большинство систем искусственного интеллекта, используемых организациями всех видов, будут использовать этические принципы, ориентированные в первую очередь на общественное благо?» Шестьдесят восемь процентов предсказали, что этические принципы, предназначенные для поддержки общественного блага, не будут использоваться в большинстве систем искусственного интеллекта к 2030 году, и только 32% полагали, что эти принципы будут включены в системы к 2030 году.

«Эти системы… в основном строятся в контексте позднего капитализма, который фетишизирует эффективность, масштаб и автоматизацию», – сказала Дана Бойд, главный исследователь Microsoft, Pew and Elon University. «Подлинно этическая позиция в отношении ИИ требует, чтобы мы сосредоточились на расширении, локализованном контексте и включении – трех целях, которые противоречат ценностям, оправдываемым поздним капитализмом. Мы не можем осмысленно говорить об этическом ИИ, пока не поставим под сомнение логику позднего капитализма ».

Пионер Интернета Винт Серф, участвовавший в опросе, ожидает, что, хотя будут предприниматься «добросовестные усилия» по внедрению этичного дизайна ИИ, благие намерения не обязательно приведут к желаемым результатам. «Машинное обучение все еще находится на начальной стадии, и наша способность предсказывать различные виды сбоев и их последствия ограничена», – сказал он. «Пространство проектирования машинного обучения огромно и в значительной степени неизведано. Если у нас проблемы с обычным программным обеспечением, поведение которого хотя бы аналитическое, машинное обучение – совсем другое дело ».

Тяжелая битва

Мнения респондентов отражают медленный прогресс отрасли и регулирующих органов по сокращению использования вредоносного ИИ. Ключевое федеральное законодательство в США остается в тупике, включая запрет на распознавание лиц и дискриминационные алгоритмы социальных сетей. Согласно недавнему опросу Boston Consulting Group, менее половины организаций имеют полностью зрелые и ответственные внедрения ИИ. Согласно отчету FICO, 65% компаний не могут объяснить, как делаются прогнозы ИИ, в то время как только 38% имеют шаги по снижению предвзятости, встроенные в процессы разработки моделей.

«Вместо ИИ просто замените« цифровую обработку ». У нас нет оснований полагать, что животный дух тех, кто разрабатывает услуги цифровой обработки, склонен к масштабированию и прибыльности, будет сдерживаться какой-то внутренней этической памятью, а у нас нет институты, которые могут наложить эти ограничения извне », – отметила в отчете Университета Пью и Илона Сьюзан Кроуфорд, профессор Гарвардской школы права и бывший специальный ассистент Белого дома Обамы по вопросам науки, технологий и инновационной политики.

Несмотря на неудачи, недавние события предполагают, что ситуация может измениться – по крайней мере, в определенных областях. В апреле Европейская комиссия, исполнительная ветвь Европейского Союза, объявила о правилах использования ИИ, включая строгие меры безопасности при найме на работу, критическую инфраструктуру, кредитный рейтинг, миграцию и алгоритмы правоохранительных органов. Такие города, как Амстердам и Хельсинки, запустили реестры искусственного интеллекта, в которых подробно описано, как правительство каждого города использует алгоритмы для предоставления услуг. А Национальный институт стандартов и технологий (NIST), агентство Министерства торговли США, которое продвигает науку об измерениях, предложило метод оценки доверия пользователей к системам ИИ.

Но такие эксперты, как Дуглас Рушкофф, считают, что это будет тяжелая битва. «Почему ИИ должен стать самой первой технологией, развитие которой продиктовано моральными принципами? Мы не делали этого раньше, и я не вижу, чтобы это происходило сейчас », – сказал Pew and Elon University теоретик СМИ и профессор Городского университета Нью-Йорка. «В основном, причины, по которым я считаю, что ИИ не будет разрабатываться с этической точки зрения, заключаются в том, что ИИ разрабатывается компаниями, стремящимися зарабатывать деньги, а не улучшать условия жизни людей. Итак, хотя будет несколько простых ИИ, используемых для оптимизации использования воды на фермах или помощи в управлении другими ограниченными ресурсами, я думаю, что большинство из них используется на людях ».

VentureBeat

Миссия VentureBeat – стать цифровой городской площадью, где лица, принимающие технические решения, могут получить знания о преобразующих технологиях и транзакциях.

На нашем сайте представлена ​​важная информация о технологиях и стратегиях обработки данных, которая поможет вам руководить своей организацией. Мы приглашаем вас стать участником нашего сообщества, чтобы получить доступ:

  • актуальная информация по интересующей вас тематике
  • наши информационные бюллетени
  • закрытый контент для лидеров мнений и льготный доступ к нашим ценным мероприятиям, таким как Преобразование 2021: Учить больше
  • сетевые функции и многое другое

Стать членом

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button