Два миллиардера, сделавших свое состояние в интернете, владелец Tesla и Space X Илон Маск и основатель Facebook Марк Цукерберг, вступили в заочный спор об опасности искусственного интеллекта. Оба предпринимателя уверены, что создание полноценного искусственного интеллекта (ИИ) – дело ближайшего будущего. Но Маск считает, что человечеству пора задуматься о регулировании разработок в этой сфере, а Цукерберг уверен, что искусственный разум значительно улучшит жизнь людей.
В середине июля Илон Маск выступал перед губернаторами штатов США и призвал власти задуматься над тем, чтобы ввести законодательные ограничения на разработки в сфере ИИ.
Цукерберг ответил на вопрос об опасности ИИ, когда общался с пользователями фейсбука. Его прямо спросили, считает ли он опасения Маска обоснованными. Создатель Facebook сказал, что не понимает как Маск всерьез может призывать к замедлению прогресса.
Тот в ответ написал в твиттере "Я говорил об этом с Марком. У него ограниченное понимание этого вопроса":
Настоящее Время полностью публикует выступления двух миллиардеров.
Илон Маск:
Пока мы не увидим, как роботы идут по улицам и убивают людей, мы не будем знать, как реагироватьИлон Маск
У меня есть доступ к самым последним достижениям в области ИИ. И я думаю, что людям действительно следует озаботится этим вопросом. Я знаю, как это звучит, но, пока люди не увидят, как роботы идут по улицам и убивают людей, они не будут знать, как реагировать.
Это кажется нереальным. Я думаю, нам действительно стоит волноваться насчет ИИ. И я думаю, что это тот редкий случай, когда мы в своих законодательных ограничениях должны играть на опережение, а не принимать решения потом, когда будет слишком поздно.
Your browser doesn’t support HTML5
Обычно ограничения работают так: сначала происходит много плохого, общество протестует, и через много лет появляются контролирующие органы для этой индустрии. Компании, которым не нравится контроль со стороны, сопротивляются, и это занимает очень много времени. В прошлом это уже приводило к плохим последствиям, но не представляло фундаментальной угрозы существованию человечества.
ИИ – это фундаментальный риск для существования человечества. Причем такого рода риск, которым ни автомобильные аварии, ни падения самолетов, ни проблемные лекарства, ни плохая пища никогда не были. Они не были угрозой. Может быть, были для конкретных людей, но не были риском для всего общества.
ИИ – фундаментальная экзистенциальная угроза для цивилизации, и я не думаю, что люди до конца это осознают. Да, когда тебя ограничивают – это невесело. Но в автомобильной индустрии нас контролирует департамент транспорта и многие другие. И в любой стране есть регулирующие органы. В космической отрасли нас контролирует Федеральное управление гражданской авиации. Но если спросить обычного человека: "Эй, хочешь избавиться от управления гражданской авиацией, и просто надеяться на то, что производители не сэкономят на самолете, потому что в этом квартале прибыль упала", – человек ответит: "Конечно нет". Звучит так себе.
Your browser doesn’t support HTML5
Думаю что даже очень либерально настроенные люди все равно сказали бы: "Давайте все-таки посматривать за производителями самолетов, нужно убедиться, что они делают хорошие самолеты". Хорошие машины, все такое. Так что у регулирующих органов есть своя роль. Конечно, я против жесткого контроля. Но я думаю, что с ИИ нам лучше поторопиться.
Конечно, это [изобретение ИИ] приведет к потере рабочих мест, потому что роботы смогут делать всё лучше нас. То есть лучше всех нас. Да. Я не знаю, что с этим делать. Для меня это самая страшная проблема. Да, я на самом деле уверен, что нам потребуется государственный контроль, потому что так мы сможем обеспечить общественную безопасность.
Компании спешат, им нужно успеть сделать ИИ, иначе они станут неконкурентоспособными. Если твой конкурент спешит сделать ИИ, а ты – нет, он тебя уничтожит. А компании говорят: "Мы не хотим умирать, похоже, нам тоже нужно создать ИИ".
И вот где должны вступать органы контроля: "Ребят, вам всем нужно притормозить и удостовериться, что это безопасно. Если проверяющие убеждены в том, что это безопасно, то ты можешь продолжать работу. Иначе – притормози. Но проверяющие должны это делать для всех, кто этим занимается, иначе акционеры будут говорить: "Эй, почему ты не разрабатываешь ИИ быстрее, чем конкуренты? Надо бы!".
<...>
Я считаю, что это самый большой риск, на который мы идем как цивилизация. Я думаю, что роль государства – заботиться об обществе, и обращать внимание на то, что ему угрожает. Отсюда и ограничения. Во-первых, необходимо как можно больше об этом узнать, чтобы понимать природу проблемы, наблюдать за прогрессом и невероятными достижениями в сфере ИИ.
В прошлом году в игре го, в которой достаточно сложно победить, и в которой, как думали люди, компьютер никогда не победит самого лучшего игрока-человека, или что это произойдет через 20 лет, так вот в прошлом году AlphaGo, созданный компанией DeepMind, компанией, которую купил Google, победила лучшего игрока Го в мире. И теперь она может играть со 150 игроками одновременно и побеждать их всех.
Your browser doesn’t support HTML5
Это впечатляющая скорость прогресса, и это будет проявляется все чаще и чаще. Робототехника, например. Существуют роботы, которые учатся ходить, с нуля, за часы. Быстрее, чем любой биологический вид. Но самое опасное – и это сложнее всего понять – потому что это не что-то физическое, это интеллект.
Казалось бы, ну что может сделать мощный [искусственный] интеллект в сети? Ну, например, начать войну. К примеру, за счет создания фейковых новостей, поддельных пресс-релизов и почтовых адресов, и просто манипуляциями информацией. Перо сильнее меча.
Как пример – я хочу подчеркнуть, я не думаю, что это действительно произошло, я говорю это чисто гипотетически – помните тот малазийский самолет, который был сбит над границей России и Украины? Это значительно усилило трения между Россией и ЕС.
Представьте, если бы у вас был искусственный интеллект, и его целью было бы максимизировать стоимость портфеля акций, одним из способов была бы покупка акций оборонных компаний, играть на понижение с акциями потребительских компаний и начать войну.
Как бы он смог это сделать? Взломать "Малайзийские авиалинии", серверы с маршрутами воздушных судов, проложить маршруты над зоной боевых действий, а потом отправить анонимное сообщение, что "над вами летит вражеский самолет".
Марк Цукерберг:
У меня есть довольно твердые убеждения по этому поводу. Я очень оптимистичен. Я оптимистичный человек в целом. Я думаю, мы можем создавать вещи, которые делают мир лучше, и по поводу ИИ я особенно оптимистичен. Я думаю, что просто не понимаю людей, которые вечно настроены скептически и постоянно запугивают этими сценариями скорого конца света. Я думаю, это правда очень плохо и безответственно, потому что в ближайшие пять-десять лет ИИ сможет улучшить и повысить качество нашей жизни.
Если вы беспокоитесь о безопасности и здоровье людей, то ИИ уже помогает лучше диагностировать болезни, и подбирать лекарства людям в зависимости от того, чем они больны, и как их можно лучше вылечить. Многие люди получат лучшее здравоохранение, чем когда бы то ни было ранее.
Your browser doesn’t support HTML5
Что касается беспилотных автомобилей, то они будут безопаснее, чем автомобили, которыми управляют люди. Это всего лишь вопрос времени. Одной из главных причин гибели людей по-прежнему остаются автомобильные аварии. И если бы их можно было устранить с помощью ИИ – это было значительно улучшило жизни людей.
Все технологии можно использовать и во вред, и во благоМарк Цукерберг
Когда я слышу рассуждения – "О, вы знаете, ИИ собирается нанести вред людям в будущем" – я думаю, что действительно, все технологии можно использовать и во вред, и во благо. И вам нужно быть осторожным, когда вы что-то создаете, нужно быть осторожным и думать, как это будет применяться.
Но когда люди настаивают на замедлении процесса создании ИИ, я нахожу это очень спорным. Мне действительно трудно понять это, потому что если ты выступаешь против ИИ, значит ты выступаешь против более безопасных машин, которые не будут попадать в аварии, выступаешь против возможности лучше диагностировать заболевания. И я просто не понимаю, как некоторые люди могут, не лукавя, это делать. Так что я в целом гораздо более оптимистичен по этому поводу [создания ИИ], чем, возможно, многие люди.