16+ /

Акции IT-компаний

Apple - $203.86

Google - $1236.37

Facebook - $178.28

Amazon - $1861.69

Microsoft - $123.37

Yandex - $37.34

Netflix - $360.35

Что будет, когда Искусственный интеллект достигнет пика своего развития?

17.11.2021 1:41

О чем вы думаете, когда речь заходит об Искусственном интеллекте? Полагаю, большинство вспоминает произведения наподобие «Я, робот» или многочисленные фильмы, в которых рассказывается о супер интеллектуальном ИИ, вознамерившимся уничтожить человечество. На деле же все куда прозаичнее: люди, которые непосредственно заняты разработкой ИИ, к подобным страшилкам относятся скептически и не без оснований. Вряд ли можно назвать Алису от Яндекса, например, угрозой для человечества. Однако существует другая область научных исследований, которая занимается изучением глобальных рисков, то есть событий, потенциально способных привести к падению нашей цивилизации и вымиранию человечества. И, как это не удивительно, по мнению многих исследователей, ИИ действительно представляет для нас с вами потенциальную угрозу. Как показали результаты исследования, проведенного в начале 2021 года, мы вряд ли сможем управлять компьютерным суперинтеллектом. По мнению авторов научной работы, сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения собственных целей. И эти цели зачастую людям непонятны.

Сегодня наши знания об окружающем мире настолько обширны, что все предыдущие поколения определенно точно позавидовали бы нам. В то время как наши бабушки и дедушки стирали вручную, так же мыли полы и посуду, сегодня все больше людей возлагают эти обязанности на роботов. Все, что нам остается – загрузить и разгрузить стиральную/посудомоечную машину, что попросту не сравнимо с работой руками.

Но за этот комфорт, все же, приходится платить. История раз за разом демонстрирует нам пути развития общества. За ту немногочисленную историю человечества (по сравнению с возрастом Вселенной) пали такие цивилизации как Майя, Древняя Месопотамия, Древняя Греция, Цивилизация Ольмеко, Древний Рим и прочие, прочие.

На первый взгляд может показаться, что история падения древних цивилизаций и империй – это не про нас. Ведь наше могущество, способность отправлять в космос ракеты, изучать другие планеты и связывать мир в единое информационное поле должны привести нас к лучшему будущему. Однако реальность, как это часто бывает, рисует совершенно иную картину – мы с вами прямо сейчас движемся к катастрофе и возможному вымиранию.

Об этом свидетельствуют результаты сотен научных исследований. Недавно, например, был опубликован новый доклад МГЭИК, посвященный проблемам, связанным с изменением климата. Его результаты вторят результатам многочисленных научных работ, вывод из которых напрашивается неутешительный – нашей цивилизации осталось в лучшем случае 500 лет.

Но стремительно меняющийся климат, хотим мы этого или нет, не является единственной серьезной угрозой для человечества. И пока исследователи и эксперты со всего мира заняты решением проблем, вызванных глобальным потеплением, ряд ученых осмелился заглянуть в наше технологическое будущее. И нам действительно есть чего опасаться.

Искусственный интеллект – это попытка создать компьютеры, способные к разумному поведению. По сути, это универсальный термин, используемый для обозначения всего – от Siri до IBM Watson и мощных технологий, которые нам еще предстоит изобрести.

Некоторые исследователи различают «узкий ИИ» или слабый ИИ — компьютерные системы, которые лучше людей в какой-то конкретной, четко определенной области, такой как игра в шахматы, генерация изображений или диагностика рака, — и «общий ИИ» – то есть, системы, которые могут превзойти человеческие возможности во многих областях. На сегодняшний день общего ИИ у нас нет, однако исследователи все лучше начинают осознавать проблемы, который он может собой представлять.

За последние несколько лет узкий ИИ добился необычайного прогресса: сегодня системы искусственного интеллекта отлично справляются с переводом иностранной речи, с игрой в шахматы и Го, а также в помогают решать важные вопросы исследовательской биологии, например предсказание того, как сворачиваются белки, и при создании изображений.

Более того, системы искусственного интеллекта определяют, что именно мы увидим в поиске Google или Яндекс или в ленте новостей Facebook или Вконтакте. Они сочиняют музыку и пишут статьи, которые на первый взгляд не отличаются от написанных человеком текстов. Эти же системы разрабатываются для улучшения наведения беспилотных летательных аппаратов и обнаружения ракет.

Но узкий ИИ становится все менее… слабым. На сегодняшний день ученым удалось добиться значительного прогресса в области искусственного интеллекта, кропотливо обучая компьютерные системы конкретным концепциям. И в последние годы интерес многих ученых нацелен на создание компьютерных систем, способных к обучению.

В целом, прогресс в области искусственного интеллекта позволил ученым добиться огромных успехов, а также поднял насущные этические вопросы. Так, Рози Кэмпбелл из Центра ИИ при Калифорнийском университете в Беркли утверждает, что нынешние трудности никак не связаны с теми жуткими сценариями из фильмов о восстании машин. Скорее, они возникают из-за несоответствия между тем, что мы приказываем нашим системам делать, и тем, что мы на самом деле от них хотим.

Проблемы, однако, возникают из-за того, что системы действительно хороши в достижении поставленной (или заданной) цели; но цель, которую они усвоили в своей учебной среде – это не тот результат, которого ученые на самом деле хотели добиться.

«В результате мы создаем системы, которые не понимаем, а это означает, что мы не всегда можем предвидеть их поведение», – отмечают исследователи.

Ну вот мы и подобрались к самому интересному. Если ученые действительно сталкиваются с проблемами, описанными выше, то какие же угрозы могут принести нам новейшие открытия в области ИИ? На самом деле все больше исследователей сомневаются в нашей способности управлять сверхразумом, в который потенциально могут превратиться обученные нами системы.

Дело в том, что для управления сверхразумом, находящимся далеко за пределами человеческого понимания, потребуется имитация этого сверхразума, которую мы можем проанализировать. Но если мы не в состоянии понять эти системы, то создать такую симуляцию невозможно. Более того, мы даже не можем установить правила, предложенные Айзеком Азимовым – «не причинять вреда людям». Ведь если мы не понимаем, какие сценарии собирается придумать ИИ, то как их предотвратить?

Интересно, что часть рассуждений, описанных в научной работе, восходят к трудам Алана Тьюринга 1936 года. С помощью сложных математических уравнений он придумал абстрактную вычислительную машину, которая формализовала определение алгоритма.

Иными словами, он попытался понять, можно ли решить любую задачу с помощью математических алгоритмов (а также те, что можно решить только методом перебора). Сам Тьюринг считал, что к 2000 году машины будут способны обмануть человека в 30% случаев.

Описание «машины Тьюринга» в конечном итоге позволило ученым подступиться к этим сложным задачам. О том, что представляет собой машина Тьюринга можно узнать на официальном сайте Кембриджского университета.

Еще одна проблема в случае появления суперинтеллекта, заключается в том, что любая программа, написанная для того, чтобы остановить ИИ, который хочет убить всех людей, может «понять» эту программу (и остановиться) или нет. Суть в том, что математически мы не можем быть абсолютно уверены в том, какой вывод сделает программа. И если говорить совсем просто, это означает, что программу «уничтожить всех» будет невозможно сдержать.

Альтернативой обучению ИИ некоторой этике и указанию ему не разрушать мир – а именно в этом по словам исследователей, ни один алгоритм не может быть абсолютно уверен – является ограничение возможностей сверхразума. Например, он может быть отключен от некоторых частей Интернета или от определенных сетей.

Если мы хотим построить будущее, в котором будут присутствовать ИИ системы, то можем даже не знать, когда появится сверхразум, находящийся вне нашего контроля, такова его непостижимость. А так как мы к созданию сверхразума стремимся, пришла пора задавать серьезные вопросы о направлениях, в которых движется развитие этих технологий.

Источник: https://hi-news.ru/technology/chto-budet-kogda-iskusstvennyj-intellekt-dostignet-pika-svoego-razvitiya.html

Космические новости

Транспорт и концепты

Роботы и нейросети

Наука и мир ученых

Программное обеспечение

Железо и комплектующие

Смартфоны и гаджеты

Игровая индустрия и спорт

Интернет и новости