Рэй Курцвейл: «Не бойтесь искусственного интеллекта».

 

   Похоже, развитие искусственного интеллекта (в любом смысле) дошло до той точки, когда эксперты должны разделиться во мнениях: быть или не быть. И если по одну сторону баррикад собираются такие известные деятели науки и техники, как Стивен Хокинг и Элон Маск, то по другую сторону собираются не менее известные футурологи и лидеры технологической отрасли, как Эрик Шмидт и Рэй Курцвейл. Последнего, видимо, так задело невежество сильных мира сего, что он самостоятельно опубликовал колонку в известном журнале TIME. Приводим ее как есть. Далее от первого лица.
 
   Два великих мыслителя видят опасность в искусственном интеллекте. И вот как сделать его безопасным.
 
   Стивен Хокинг, выдающийся физик, недавно предупредил, что искусственный интеллект, когда превзойдет человеческий разум, может представлять угрозу для существования человеческой цивилизации. Элон Маск, пионер электронных денег, частных космических полетов и электромобилей, выразил похожую обеспокоенность.
 
   Если ИИ станет угрозой для жизни, это будет далеко не первая угроза. С экзистенциальной опасностью люди столкнулись, когда я пешком под стол ходил — были учения гражданской обороны в 1950-х. С тех пор мы часто сталкивались с призраками угрозы человечеству, возможностью того, что биотеррористы выведут новый вирус, от которого человечество не сможет защититься. Технологии всегда были палкой о двух концах, с тех пор как огонь начал обогревать наши дома и сжигать другие.
 
   Обычный мрачный фильм о будущем представляет группу из одного или двух лиц, которые борются за контроль над искусственным интеллектом. Или мы видим, как искусственный интеллект борется с людьми за мировое господство. Но искусственный интеллект вписывается в наш мир сегодня совершенно иным образом. Это не палка о двух концах, которая находится в руках одного-двух людей; ее держат миллиард или два миллиарда рук. Ребенок в Африке со смартфоном обладает более интеллектуальным доступом к знаниям, чем президент США двадцать лет назад. И по мере того, как ИИ становится умнее, его использование будет только расти. На практике, умственные способности каждого человека вырастут в течение десяти лет.
 
   У нас по-прежнему возникают конфликты между разными группами людей, обладающих ИИ. Но мы можем привести контраргумент: уровень насилия снижается по экспоненте, как отмечал Стивен Пинкер в книге 2011 года The Better Angels of Out Nature: Why Violence Has Declined. По мнению Пинкера, хотя статистика изменяется от места к месту, уровень смертности на войне упал в сотни раз, если сравнивать с событиями шестисотлетней давности. С тех пор количество убийств упало в десятки раз. Людей это удивляет. Впечатление о том, что насилие растет, вытекает из другой тенденции: экспоненциально улучшается информация о том, что с миром не так.
 
   Есть стратегии, которыми мы можем воспользоваться, чтобы обеспечить безопасность развивающихся технологий типа искусственного интеллекта. Рассмотрим биотехнологии, которые, возможно, развиваются в несколько раз быстрее, чем ИИ. Совещание Asilomar — конференция на тему рекомбинантной ДНК — было собрано в 1975 году, чтобы оценить потенциальные опасности новых технологий и сохранить это поле в безопасности. В результате получились инструкции, которые с тех пор не раз пересматривались и которые работают на ура: с этой сферой не было никаких проблем в течение последних 39 лет. Зато мы наблюдаем массу улучшений в сфере медицины, клинической практики и тому подобного.
 
   Рассмотрение этических инструкций по использованию искусственного интеллекта уходит корнями в три закона робототехники Азимова, который описал их в коротком рассказе «Хоровод» в 1942 году, за восемь лет до того, как Алан Тьюринг представил область искусственного интеллекта в работе «Вычислительные машины и разум» 1950 года. Усредненный взгляд практиков искусственного интеллекта на сегодня таков, что мы все еще в нескольких десятилетиях от ИИ человеческого уровня. Я немного более оптимистичен и переношу дату на 2029 год, но в любом случае у нас есть масса времени, чтобы разработать этические стандарты.
 
   В университетах и компаниях проводят инициативы по разработке стратегий и инструкций безопасного развития ИИ, некоторые из которых уже работают. Как и инструкции Asilomar, они состоят в том, чтобы определить миссию каждой программы искусственного интеллекта и создать зашифрованные гарантии, предотвращающие несанкционированное использование.
 
   В конечном счете самое важное, что мы должны сделать, это обезопасить работу ИИ на уровне человеческих, гуманных и социальных институтов. Мы уже человеко-машинная цивилизация. Лучший путь избежать конфликта в будущем — это продолжить совершенствование наших социальных идеалов, благодаря которым значительно снижается уровень насилия.
 
   Сегодня ИИ совершенствуется в диагностике болезней, поиске лечений, разработке возобновляемых источников энергии, помогает очищать окружающую среду, учит людей по всему миру, помогает инвалидам (не забудем и про знаменитый голос Хокинга) и вносит вклад в мириады других отраслей. У нас есть возможность сделать серьезные шаги в решении грандиозных задач человечества, и искусственный интеллект возглавит этот прогресс. У нас будет нравственный императив, который будет развивать ИИ, удерживая его на поводке. И это далеко не первый раз, когда нам удалось это сделать.

Комментировать

Оставлять комментарии могут только авторизованные пользователи ... Авторизуйтесь, через вашу любимую социальную сеть!

{%Last10%}