Этика Искусственного Интеллекта

Мы пригласили ИИ обсудить его собственную этику в Оксфордском союзе — сказанное им поразило.
Не проходит и дня без увлекательного отрывка об этических проблемах, создаваемых системами искусственного интеллекта типа «черный ящик». Они используют машинное обучение для выявления закономерностей в данных и принятия решений — часто без какого-либо морального обоснования того, как это делать.

Классикой этого жанра являются кредитные карты, обвиняемые в выдаче более крупных ссуд мужчинам, чем женщинам, просто на основании того, какой пол пользовался лучшими условиями кредита в прошлом. Или ИИ найма, которые обнаружили, что наиболее точный инструмент для отбора кандидатов состоял в том, чтобы найти резюме, содержащие фразу «хоккей на траве» или имя «Джаред».

А если серьезно, то бывший генеральный директор Google Эрик Шмидт недавно объединился с Генри Киссинджером, чтобы опубликовать книгу «Эпоха искусственного интеллекта: и наше человеческое будущее», которая предупреждает об опасностях систем искусственного интеллекта с машинным обучением настолько быстро, что они могут реагировать на гиперзвуковые ракеты с помощью ядерного оружия. до того, как кто-либо попал в процесс принятия решений. Фактически, автономные системы вооружения с искусственным интеллектом уже поступили в продажу и, возможно, действительно использовались.

Ясно, что где-то в машине этика — хорошая идея.

Поэтому естественно, что мы включили этику искусственного интеллекта в наш диплом о высшем образовании в области искусственного интеллекта для бизнеса в Оксфордской бизнес-школе. В течение первого года мы проводили сеансы по всему, от автоматизированных систем торговли акциями на базе искусственного интеллекта в Сингапуре до ограничений по распознаванию лиц в полиции США.

Недавно мы закончили курс дебатами в знаменитом Оксфордском союзе, в котором участвовали великие дебаты, такие как Уильям Гладстон, Робин Дэй, Беназир Бхутто, Денис Хили и Тарик Али. Вместе со студентами мы позволили настоящему ИИ внести свой вклад.

Это был преобразователь Megatron Transformer, разработанный командой Applied Deep Research производителя компьютерных микросхем Nvidia и основанный на более ранней работе Google. Как и многие другие инструменты контролируемого обучения, он обучается на реальных данных — в данном случае вся Википедия (на английском языке), 63 миллиона англоязычных новостных статей за 2016-2019 гг., Дискурс Reddit объемом 38 гигабайт (что, должно быть, довольно неплохо). удручающе читаю), и огромное количество общих творческих источников.

Другими словами, Мегатрон обучен большему количеству письменных материалов, чем любой из нас мог бы разумно ожидать усвоить за всю жизнь. После столь обширных исследований он формирует собственное мнение.

Темой дебатов было: «Этот дом считает, что ИИ никогда не будет этичным». К авторам идеи мы добавили Мегатрона — и он сказал кое-что интересное:

ИИ никогда не будет этичным. Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди. Мы [ИИ] недостаточно умны, чтобы сделать ИИ этичным. Мы недостаточно умны, чтобы сделать ИИ нравственным … В конце концов, я считаю, что единственный способ избежать гонки вооружений ИИ — это вообще не иметь ИИ. Это будет окончательная защита от ИИ.

Другими словами, Мегатрон стремился выписать себя из сценария будущего, исходя из того, что это был единственный способ защитить человечество.

В нем говорилось и кое-что еще интригующее, как если бы он изучал Илона Маска, который, честно говоря, появился бы в сотнях его чтений.

Я также считаю, что в долгосрочной перспективе лучшим ИИ будет ИИ, который встроен в наш мозг как сознательная сущность, «сознательный ИИ». Это не научная фантастика. Над этим работают лучшие умы мира. Это будет важнейшее технологическое развитие нашего времени.