Искусственный интеллект – этот блистающий и опасный мир

Искусственный интеллект – этот блистающий и опасный мир

Новолетие – традиционное время планов и даже футуристических прогнозов. Среди меркантильных прогнозов найдется время и для научной фантастики, тем более, она уже приоткрыла дверь и глядит на нас из не очень ясного завтра.

В конце ушедшего года довольно активно обсуждалась тема автомобильных автопилотов. Вернее сказать автомобильных роботов, которые по обещаниям специалистов, способны заменить известную прокладку между рулем и автомобилем, сведя смертность на дорогах практически к нулю. Но это далеко не предел возможностей искусственного интеллекта.

Ученая часть человечества с середины ушедшего века упорно работала над созданием искусственного интеллекта (ИИ), осмыслением этого феномена и понимания его роли в человеческом социуме. Найти четкого определения ИИ практически невозможно. Наиболее удачно сформулировал определение Алан Тюринг в виде известного теста, суть которого в том, что ИИ должен поддерживать диалог с человеком так, чтобы последний не заподозрил, что с ним говорит машина. Кто сталкивался, может судить, что известная Алиса пока с этой задачей не вполне справляется, хотя и бывает довольно занятной.

Человечество уже не в состоянии прожить без компьютеров, но это еще не ИИ. Компьютер обрабатывает данные и решает задачи, основываясь на формальной булевой алгебре, подчиняясь жесткому алгоритму. В нулевые годы произошло два революционных изменения в области ИИ.  Созданы многослойные нейросети, наилучшим образом копирующие работу человеческого мозга, а так же переход от логического программирования к ассоциативному. Суть ассоциативного программирования – это способность к самообучению и умение принимать решения в условиях неполной информации. Со слов президента группы компаний Cognitive Technologies Ольги Усковой, при проведении рядового опыта по изучению взаимодействия двух ИИ, занятых в процесс выполнения однотипных задач, был получен совершенно неожиданный результат. Машины с ИИ выработали около сотни «слов» для обмена информацией между собой. Способность к социализации это уже не алгоритм арифмометра, это действительно интеллект.

ИИ нам нужен, конечно же, не для того, чтобы оставить безработными таксистов. Одна из основных проблем научного развития заключается в том, что области научных знаний становятся узкоспециализированными и вследствие этого изолированными друг от друга. В очень грубом приближении, химия предполагает, что химические реакции протекают практически мгновенно без учета физического взаимодействия внутри процесса, хотя в реальности это совсем не так. По этой причине очень важна широкая научная эрудиция, но последняя не предполагает глубокого погружения в узкую научную специализацию. В этом парадокс, который призван разрешить ИИ.  Другая проблема – это совмещения науки и инженерной практики. Дело в том, что наука предполагает абстрагирования от второстепенных деталей, в этом суть научного познания. Инженерная практика ровно напротив предполагает учет разного рода второстепенных деталей. На практике это достигается только наработкой инженерного опыта суть которого, путь «ошибок трудных».

Есть и менее глобальные, но актуальные задачи для ИИ. Это распознание человеческой речи и её синтез, распознание изображений, постановка медицинских диагнозов, работа с большими массивами данных и их подбор на основе индивидуальных интересов.

Можно сделать вывод, что первый, кто создаст полноценный ИИ, получит джина из бутылки, преимущества сопоставимые разве что с овладением ядерной энергией.

По мнению специалистов, нас ожидает синтез человека и ИИ. В недалеком будущем ИИ будет в состоянии получать от человека мысленные команды, воспринимать мысленные образы и передавать информацию непосредственно в мозг. Последнее, конечно, не может не настораживать.

Коль скоро речь заходит о рисках, на ум приходи Шварценеггер в роли терминатора и «Матрица» братьев Вачовски. Уже сегодня такие компании как Amazon или Google знают наши интересы, привычки. Мы практически живем в стеклянном доме. Даже если не пользоваться гаджетами о нас могут «рассказать» наши соседи или коллеги. Не самая приятная действительность, если задуматься. Зная о нас всё даже лучше, чем мы сами, где уверенность, что нами не манипулируют?

Безусловно, всё новое несет риск, как порох или ядерная энергия. Осознавая эти риски, более тысячи ученых, включая Стивена Хокинга, Стива Возняка, Илона Маска высказались о полном запрете использования ИИ в военных целях. По их мнению, полностью автономное оружие не только не снижает человеческие жертвы в ходе вооруженных конфликтов, но и повышает риски их возникновения.

Другой лежащий на поверхности риск, это освобождение большого числа людей, занятых в отраслях, которые заменит ИИ. Уже сейчас ИИ успешно заменяет биржевых трейдеров, что и говорить о работниках, занятых рутинным и низко квалифицированным трудом. По мнению Аллисона Дютмана координатора Foresight Institute, может быть введен «универсальный базовый доход» вне зависимости от имеющегося уровня дохода и занятости. Необходимо отметить, что любой прорыв в научно-техническом прогрессе создает и большое количество новых рабочих мест, и новые возможности для частной инициативы. Понятие саботаж вошло в лексикон после сопротивления лионских ткачей внедрению ткацких станков. Прогресс (как бы мы не относились к нему) не остановить, а общество смогло справиться с этой проблемой. То же самое произошло и с атомной энергией. Аналогичное письмо-предостережение было подписано учеными, занятыми в Манхэттенском проекте.

Более глубоко проблему сформулировал Стивен Хокинг: «Появление полноценного ИИ может стать концом человеческой расы. Такой разум может взять на себя инициативу и будет сам себя совершенствовать с возрастающей скоростью... Мы не сможем тягаться со скоростью машинных программ».

Действительно, за последние 50 лет научный прогресс немало удивлял. Разве что маленький привычный смартфон в нашем кармане стал по-настоящему неожиданным. Что ж, его большой брат уже смотрит на нас. Дверь не захлопнуть у его носа. Сможем ли мы приучить ИИ, зависит от нас. От людей.

По материалам: u-f
Добавить комментарий
Ваше Имя:
Ваш E-Mail:
Введите два слова, показанных на изображении: *