Последние новости
19 июн 2021, 22:57
Представитель политического блока экс-президента Армении Сержа Саргсяна "Честь имею" Сос...
Поиск

11 фев 2021, 10:23
Выпуск информационной программы Белокалитвинская Панорама от 11 февраля 2021 года...
09 фев 2021, 10:18
Выпуск информационной программы Белокалитвинская Панорама от 9 февраля 2021 года...
04 фев 2021, 10:11
Выпуск информационной программы Белокалитвинская Панорама от 4 февраля 2021 года...
02 фев 2021, 10:04
Выпуск информационной программы Белокалитвинская Панорама от 2 февраля 2021 года...
Главная » Почему этическая проблема — самая серьезная для искусственного интеллекта

Почему этическая проблема — самая серьезная для искусственного интеллекта

09 мар 2017, 20:04

 Искусственный интеллект уже повсюду и повсюду останется. Многие аспекты нашей жизни в той или иной степени касаются искусственного интеллекта: он решает, какие книги купить, какие билеты на авиарейс заказать, насколько успешны поданные резюме, предоставит ли банк ссуду и какое лекарство от рака назначить пациенту. Многие его применения по нашу сторону океана еще не пришли, но обязательно придут.

Все эти вещи — и многие другие — теперь могут в значительной степени определяться сложными программными системами. Огромные успехи, достигнутые ИИ за последние несколько лет, поразительны: ИИ делает нашу жизнь лучше во многих, многих случаях. Рост искусственного интеллекта стал неизбежным. Огромные суммы были инвестированы в стартапы на тему ИИ. Многие существующие технические компании — включая таких гигантов, как Amazon, Facebook и Microsoft, — открыли новые исследовательские лаборатории. Не будет преувеличением сказать, что программное обеспечение теперь означает ИИ.

Некоторые предсказывают, что пришествие ИИ будет таким же большим событием (или даже больше), как и появление Интернета. BBC опросила экспертов, что готовит этот быстро меняющийся мир, наполненный блестящими машинами, нам, людям. И что особенно интересно, почти все их ответы были посвящены этическим вопросам.

Питер Норвиг, директор по исследованиям в Google и пионер машинного обучения, считает, что технологии ИИ, основанные на данных, поднимает особенно важный вопрос: как обеспечить, чтобы эти новые системы улучшали общество в целом, а не только тех, кто ими управляет. "Искусственный интеллект оказался весьма эффективным в практических задачах — от маркировки фотографий до понимания речи и письменного естественного языка, выявления заболеваний", говорит он. "Теперь задача состоит в том, чтобы удостовериться, что каждый пользуется этой технологией".

Большая проблема заключается в том, что сложность программного обеспечения зачастую означает, что невозможно точно определить, почему система ИИ делает то, что делает. Благодаря тому, как работает современный ИИ — основываясь на широко успешной технике машинного обучения, — невозможно просто открыть капот и посмотреть, как он работает. Поэтому нам приходится просто ему доверять. Задача состоит в том, чтобы придумать новые способы мониторинга или аудита многих областей, в которых ИИ играет большую роль.

Джонатан Зттрейн, профессор интернет-права юридического факультета Гарварда, считает, что существует опасность того, что усложнение компьютерных систем может помешать нам в обеспечении должного уровня проверки и контроля. "Меня беспокоит сокращение автономии человека, поскольку наши системы — при помощи технологий — становятся все более сложными и тесно взаимосвязанными", говорит он. "Если мы "настроим и забудем", мы можем пожалеть о том, как разовьется система и что не рассмотрели этический аспект ранее".

Это беспокойство разделяют и другие эксперты. "Как мы сможем сертифицировать эти системы как безопасные?", спрашивает Мисси Каммингс, директор Лаборатории человека и автономности в Университете Дьюка в Северной Каролине, одна из первых женщин-пилотов истребителя ВМС США, ныне специалист по беспилотникам.

ИИ потребуется надзор, но пока неясно, как это сделать. "В настоящее время у нас нет общепринятых подходов", говорит Каммингс. "И без промышленного стандарта тестирования таких систем будет трудно широко имплементировать эти технологии".

Но в стремительно меняющемся мире зачастую и органы урегулирования оказываются в позиции догоняющих. Во многих важных областях вроде уголовного правосудия и здравоохранения компании уже наслаждаются эффективностью искусственного интеллекта, который принимает решение об условно-досрочном освобождении или диагностике заболевания. Передавая право решения машинам, мы рискуем потерять контроль — кто будет проверять правоту системы в каждом отдельном случае?

Дана Бойд, главный исследователь Microsoft Research, говорит, что остаются серьезные вопросы о ценностях, которые записываются в такие системы — и кто в конечном итоге несет за них ответственность. "Регуляторы, гражданское общество и социальные теоретики все чаще хотят видеть эти технологии справедливыми и этическими, но их концепции в лучшем случае расплывчаты".

Одна из областей, чреватых этическими проблемами, это рабочие места, вообще рынок работы. ИИ позволяет роботам выполнять все более сложные работы и вытесняет большое количество людей. Китайская Foxconn Technology Group, поставщик Apple и Samsung, заявила о намерении заменить 60 000 рабочих завода роботами, а фабрика Ford в Кельне, Германия, поставила роботов рядом с людьми.

Более того, если повышение автоматизации окажет большое влияние на занятость, это может иметь негативные последствия для психического здоровья людей. "Если задуматься о том, что дает людям смысл в жизни, это три вещи: значимые отношения, страстные интересы и значимая работа", говорит Иезекиель Эмануэль, биоэтик и бывший советник по вопросам здравоохранения Барака Обамы. "Значимая работа — очень важный элемент чьей-то идентичности". Он говорит, что в регионах, где работы были потеряны вместе с закрытием фабрик, повышается риск суицида, злоупотребления психоактивными веществами и депрессии.

В результате мы видим потребность в большом количестве специалистов по этике. "Компании будут следовать своим рыночным стимулам — это не плохо, но мы не можем полагаться на то, что они будут вести себя этически корректно просто так", говорит Кейт Дарлинг, специалист по праву и этике в Массачусетском технологическом институте. "Мы видели это всякий раз, когда появлялась новая технология и мы пытались решить, что с ней делать".

Дарлинг отмечает, что многие компании с крупными именами, такие как Google, уже создали надзорные комитеты по этике, которые контролируют разработку и развертывание их ИИ. Есть мнение, что они должны быть более распространенными. "Мы не хотим душить инновации, но такие структуры нам просто необходимы", говорит она.

Подробности о том, кто сидит в совете по этике Google и чем занимается, остаются туманными. Но в прошлом сентябре Facebook, Google и Amazon запустили консорциум для разработки решений, которые позволят справиться с бездной ловушек, связанных с безопасностью и секретностью ИИ. OpenAI — тоже организация, которая занимается разработкой и продвижением ИИ с открытым исходным кодом на благо всех. "Важно, чтобы машинное обучение изучалось открыто и распространялось через открытые публикации и открытый исходный код, чтобы все мы могли поучаствовать в дележе вознаграждений", говорит Норвиг.

Если мы хотим развивать промышленность и этические стандарты и при этом четко осознавать, что поставлено на карту, то важно создать мозговой штурм с участием специалистов по этике, технологиям и лидеров корпораций. Речь идет о том, чтобы не просто заменить людей роботами, а помочь людям.

hi-news.ru

09 мар 2017, 20:04




Почему этическая проблема — самая серьезная для искусственного интеллекта


Читайте также

Информация
Комментировать статьи на сайте возможно только в течении 100 дней со дня публикации.