Вторник, 03 февраля 2015 15:05

Во власти разума: Как жить человеку в эру ИИ

Rate this item
(0 votes)

Проблеме искусственного интеллекта в последнее время уделяют всё больше внимания. Лучшие умы спорят и дискутируют, богатейшие инвесторы вкладывают, публицисты пишут и издают, а обывателям, вроде нас, только и остается, что ждать

и смотреть, что из этого всего получится.

Редакция Droider решила разобраться в том, что уже происходит и приводит мнения ученых, публицистов, инвесторов и просто неравнодушных к проблеме освоения технологий искусственного интеллекта.

Британский физик-теоретик и один из умнейших людей на планете Стивен Хокинг считает искусственный интеллект реальной угрозой для человечества. Ученый опасается, что в ближайшем будущем будут созданы такие машины, которые превзойдут человека.

Стивен Хокинг

“Появление полноценного искусственного интеллекта может стать концом человеческой расы. Такой разум возьмет инициативу на себя и станет самосовершенствоваться с возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем”, — рассказал ученый в интервьюBBC.

Миллиардер Элон Маск разделяет позицию Хокинга в этом вопросе и не понимает, почему люди до сих пор не обращают внимания на проблему.

В октябре прошлого года на симпозиуме Массачусетского технологического института Маск назвал искусственный интеллект главной угрозой для человечества. А в январе инвестировал 10 миллионов долларов в развитие искусственного интеллекта “дружественного” характера.

Элон Маск

“Мне кажется, нам необходимо быть очень осторожными в области искусственного интеллекта. Если бы необходимо было угадать, что является наибольшей угрозой для человечества, я бы назвал именно его… Я все больше склоняюсь к тому, что должен быть сформирован какой-то регулирующий орган, возможно, на национальном и международном уровне. Просто чтобы убедиться, что мы не делаем что-то особенно глупое. С искусственным интеллектом мы призываем демона. Как в этих историях, где парень с пентаграммой и святой водой, и он такой весь уверенный, что сможет управлять демоном. Но не вышло”, — говорит Маск.

Стивен Хокинг и Элон Маск подписали открытое письмо об опасности ИИ. Сообщение-предостережение сопровождает доклад Института будущего жизни, в котором подчеркивается,  что “ученым следует тщательно координировать разработку и сообщать о своих достижениях, чтобы искусственный интеллект не вышел из-под контроля человечества”.

Журналист и писатель Николас Карр в книге The Glass Cage пишет, что автоматизация и внедрение машин стимулирует экономический рост и производительность труда, но в итоге счете лишит человека работы и превратит нас в рабов роботов.

Однако Карр не унывает и говорит, что homo sapiens в любом случае хитрее машины, а чрезмерное доверие бездушному автомату — очень рискованно. По мнению писателя, сегодня людям следует оставаться людьми, быть человечными и не перекладывать мысли и заботы на гаджеты и сервисы. В противном случае есть риск навсегда потерять себя.

Николас Карр

“Если робот может работать быстрее, дешевле или лучше, чем человеческий аналог, то робот получит эту работу.

Я не говорю, что машины обгонят нас в эволюционном развитии. Даже самый мощный суперкомпьютер демонстрирует не больше самосознания, чем молоток. Я говорю, что программное обеспечение и роботы под нашим чутким руководством будут искать новые способы превзойти «творцов».

Машины холодные и глупые, и их слепое подчинение прописанным в коде возможностям показывает нам, каким могло бы быть общество, в котором нет места человечности. Привнося что-то человеческое во Вселенную, машины одновременно привносят что-то чуждое в мир людей”, — утверждает Карр.

Ник Бостром, философ и профессор Оксфордского университета, в книге Superintelligence: Paths, Dangers, Strategies высказал идею, что сначала Artificial intelligence станет мегаумным, затем у него появятся цели, а потом он захочет избавиться от людей.

Ученый говорит, что в определенный момент такой интеллект станет неуправляемым. Таким образом, Бостром видит в развитии технологии AI угрозу для существования человеческого вида.

Ник Бостром

“Искусственный интеллект уже сегодня превосходит человеческий во многих областях. Так, на протяжении многих лет разные виды ИИ побеждают чемпионов всевозможных игровых турниров, будь то шахматы или покер. Такие достижения могут и не казаться особенно впечатляющими, но лишь потому, что наши требования к удивительному быстро адаптируются к прогрессу.

Человек — самая ненадёжная система. Сегодня хакеры часто обращаются к принципам социальной инженерии с целью получения доступа к чужому компьютеру. А если хакером-манипулятором окажется суперинтеллект, то можно предположить, что он с лёгкостью найдёт сообщника или же просто станет использовать нас против воли.

Человек сам по себе представляет полезный ресурс (удобно сгруппированные атомы), а его выживание и процветание зависит от других ресурсов. Результатом развития ИИ, нуждающегося в этих ресурсах, может легко стать исчезновение человечества. Так настанет время технологически высокоразвитого общества, включающего структуры, многие из которых будут умнее всего, что есть сегодня на планете. Это будет время экономических и технологических чудес. Но никого, кто бы мог этим воспользоваться, не останется. На Земле воцарится Диснейленд, в котором больше не будет детей”, — рассказывает в книге Борстром.

Билл Гейтс, отец-основатель корпорации Microsoft, во время онлайн-марафона Ask Me Anything на форуме Reddit признал, что развитие технологии искусственного интеллекта может сыграть с человечеством злую шутку.

Билл Гейтс

“Я в том лагере, который обеспокоен перспективой развития суперинтеллекта. Сначала машины будут выполнять большую часть работы за нас, однако не будут обладать высшим интеллектом. Это хорошо, если мы правильно будем этим управлять. Через несколько десятилетий AI станет достаточно развитым, чтобы выступать причиной для беспокойства”, — считает Гейтс.

Рэймонд Курцвейл, футуролог и по совместительству технический директор Google, не столь категоричен. Сам же Гейтс считает Курцвейла“лучшим из тех, кого я знаю, в предсказании будущего искусственного интеллекта”.

Рэймонд Курцвейл

“К 2020 году большинство болезней исчезнет, поскольку наноботы станут «умнее» нынешних медицинских технологий. Нормальное человеческое питание можно будет заменить наносистемами. Тест Тьюринга будет проходиться постоянно. Самоуправляемые автомобили наводнят дороги, людям запретят самостоятельно ездить по автомагистралям. К 2040-ым небиологический интеллект будет в миллиард раз более способным, чем биологический (то бишь наш). Нанотехнологии будут создавать еду и любые объекты физического мира буквально из воздуха. К 2045 году мы сможем умножить собственный интеллект в миллиард раз, связав кору полушарий беспроводным путем с искусственным неокортексом в облаке”, — утверждает Курцвейл.

Разработчики отечественной компании Cubic Robotics тоже считают, что опасаться искусственного интеллекта не стоит, а развивать данную технологию надо прямо сейчас.

“В 2020 персональный ИИ будет настолько же популярным, как сегодня смартфон. В октябре 2014 компания Google провела исследование и выяснила, что 55% подростков пользуются помощниками, вроде Google Now и Siri, больше раза в день. Через 5-6 лет эти самые подростки с помощью голосовых ассистентов будут оплачивать счета.

Для создания настоящего AI, как в «Матрице» или «Терминаторе», пока нет технологических предпосылок. В то же время, локальный искусственный интеллект — как Cubic — может служить во благо.

Настоящий вред может принести борьба с развитием искусственного интеллекта. Элон Маск часто вспоминает фильм «Терминатор». А как насчет «Интерстеллера»? В этом фильме человечество было на грани вымирания из-за остановки технического прогресса под давлением пропаганды”, — рассказывает Иван Крюков.

Кстати, буквально на днях стартап собрал необходимую сумму (100 000 долларов) для коммерческого запуска проекта. Вполне возможно, что именно ребятам из Cubic Robotics удастся развеять сомнения ученых и экспертов относительно безопасности развития данной технологии.


Не забудьте посмотреть:

Read 2672 times