25 Апреля 2024

Четверг, 09:47

БУДУЩЕЕ НАСТУПИЛО

По поводу влияния искусственного интеллекта на человечество одни сплошные вопросы и ни одного ответа

Автор:

15.05.2023

Новость о том, что «крестный отец» искусственного интеллекта (ИИ), разработчик нейросетей, 75-летний британо-канадский ученый Джеффри Хинтон уволился из Google, раскритиковав компанию за неэтичность, и предупредил мир об опасности ИИ, прозвучала несколько тревожно. Ведь фактически именно этот человек стоит за развитием чат-ботов с искусственным интеллектом - ChatGPT, Google Bard, Midjorney и других, которые в последнее время резко ворвались в информационное пространство и вообще, как кажется, в нашу жизнь. 

 

Опасность близка

В 2018-м Хинтон получил премию имени Алана Тьюринга с формулировкой «за концептуальные и инженерные прорывы, сделавшие глубинные нейросети краеугольным компонентом в вычислительной технике». А уже 1 мая этого года он выступил со своим сенсационным интервью для The New York Times (NYT). Ученый заявил, что главная угроза чат-ботов в том, что интернет, который уже и так не слишком отличается правдивым контентом, и вовсе сильно наполнится различными фейками - сгенерированными фотографиями, видео и текстами. Ранее письмо о необходимости временно прекратить разработку систем искусственного интеллекта, по мощности превосходящих GPT-4, подписали владелец Twitter, SpaceX и Tesla Илон Маск, сооснователь Apple Стив Возняк и некоторые другие значимые фигуры в данной области. По их мнению, сначала нужно разработать механизмы сдерживания ИИ, а потом уже думать над тем, как его развивать. Иначе может быть поздно, и он станет слишком самостоятельным...

Человеку это грозит множеством рисков, самый близкий и понятный из которых (в принципе все пользователи интернета уже с этим так или иначе сталкивались): как понять, где правда, где реальность, а где вымысел? Что считать маркерами правды? На основании чего делать свой выбор - от выбора зубной пасты до выбора своего кандидата, за которого будешь голосовать?  Эти вопросы намного сложнее и серьезнее, чем кажутся на первый взгляд. Ведь если сейчас простые пользователи нейросетей в основном применяют их в целях развлечения, то какой станет наша реальность, когда они станут использоваться повсюду? Что будет, когда наша жизнь начнет диктоваться алгоритмами, которые мы не понимаем? 

В конце марта в соцсетях с огромной скоростью стала распространяться фотография Папы Римского Франциска в модном белом пуховике. Снимок сразу же стал вирусным в Twitter.  На самом деле эта картинка была сделана с помощью нейросети Midjorney, причем запрос оформлялся достаточно просто - боту в мессенджер отправили сообщение с описанием нужного изображения. Уже есть множество фейковых изображений c задержанием Дональда Трампа, как Владимир Путин предстает перед трибуналом Международного уголовного суда в Гааге, а также фотографии, на которых Путин якобы преклоняет колени перед Си Цзиньпином. Но если это еще можно как-то отнести к области развлечений, то Хинтона больше беспокоит то, что инструменты ИИ могут быть применены, например, для подтасовки результатов выборов, шантажа, клеветы, подрыва национальной безопасности какого-либо государства, развязывания войн…

Под угрозой окажется и будущее СМИ. С одной стороны открываются огромные возможности для манипулирования самими журналистами и их продуктами, а с другой - сами масс-медиа получают в руки фантастический инструментарий для работы. Вопрос при этом в том, на каком месте в этом «новом дивном мире» окажутся такие принципы, как надежность или мораль, этика и будут ли они вообще? И, конечно, отсюда вытекает вопрос: а нужны ли будут сами журналисты?  

О потенциальном влиянии технологий ИИ на рынок труда даже и подумать страшно. В отчете Goldman Sachs говорится, что это может поставить под угрозу 300 млн рабочих мест по всему миру. Гендиректор корпорации IBM (Международная корпорация машин для бизнеса) Арвинд Кришна уже заявила, что приостановит наем сотрудников, которых сможет заменить искусственный интеллект. Но это, кажется, только начало.

 

Совершеннее человеческого мозга

«Некоторые люди верили, что технологии могут стать умнее, чем мы, но большинство считало это преувеличением. Я тоже думал, что до этого еще далеко. Я думал, что нам остается до этого от 30 до 50 лет или даже больше. Очевидно, я больше так не считаю», - откровенно признался Хинтон в своем интервью. 

По его мнению, в некоторых аспектах нейронные сети стали уже совершеннее, чем человеческий мозг. «Мы являемся биологическими системами, а здесь речь идет о цифровых. И огромная разница заключается в том, что с цифровыми системами у вас может быть множество копий с одними и теми же исходными составляющими. Все эти копии могут учиться отдельно друг от друга, а потом мгновенно обмениваться новыми знаниями. Представьте, если бы каждый из 10 тыс. людей узнавал что-то новое, и тут же все 10 тыс. автоматически получали это знание. Вот почему эти чат-боты могут знать намного больше, чем отдельно взятый человек. Это совершенно другая форма интеллекта. Новая, более совершенная», - пояснил Хинтон. 

Да, действительно, OpenAI уже применяется в нескольких компаниях, где активно работает с клиентами, структурирует базы данных и т.д. А еще нейросеть прекрасно сдает экзамены намного лучше многих выпускников и пишет хорошие дипломные работы. Уже всем известна история выпускника РГГУ Александра Жадана, который за сутки написал при помощи ChatGPT дипломную работу и защитил ее. Можно утверждать, что ИИ - реальная угроза для программистов, переводчиков, бухгалтеров, юристов, различных ассистентов и консультантов, сотрудников колл-центров, создателей контента, дизайнеров, медиков (например, нейросеть уже довольно точно ставит диагнозы), даже композиторов (!)… В начале апреля в соцсетях появился сгенерированный нейросетью трек Heart On My Sleeve с голосами Дрейка и The Weeknd, который набрал миллионы просмотров. И таких примеров уже множество. Над вопросами авторских прав пока еще никто не думал. Но зато с уверенностью можно сказать, что у нейросетей есть и творческие способности, и даже чувство юмора. Кстати, то, как ИИ сможет расправиться со СМИ или создать армию безработных, - тоже из области политики и национальной безопасности.  К области национальной безопасности можно отнести и то, как общение с ИИ скажется на психическом здоровье миллионов людей. В данном контексте достаточно упомянуть, что у многих пользователей создается иллюзия общения с живым человеком. Появление армии не только безработных, но и психически нестабильных людей может стать угрозой для любого общества.  

 

Пространство для мошенничества

Следует упомянуть и о том, как особенно воодушевились киберпреступники. Они уже вовсю обсуждают, как можно использовать ChatGPT для облегчения злонамеренной киберактивности - писать фишинговые письма, компилировать вредоносные программы. Они даже не скрывают, как услужливый ИИ может заняться генерацией полезного и, главное, убедительного контента. Причем больше не будет языкового барьера - нейросеть сможет так хорошо написать письмо, что даже самый внимательный носитель языка не почувствует подвоха. А еще она сможет вести фальшивые профили в социальных сетях, которые тоже будут выглядеть как самые настоящие, наполненные постами, сообщениями, статусами, фотографиями и видео. И вот уже открываются новые просторы для того же кибершпионажа. И появляется новая брешь в том, что касается глобальной и национальной безопасности.

Ну и, наконец, самое страшное. Хинтон также опасается, что искусственные системы могут обучаться непредсказуемому поведению, когда анализируют обширные массивы данных. Это значит, что людям будет все сложнее прогнозировать механизмы функционирования ИИ. То есть мы просто не будем знать, чего ожидать и к чему готовиться. По словам Хинтона, выживание человечества окажется под угрозой, если «умные вещи будут умнее нас». А они смогут научиться, если прочитают все книги по тому, как управлять общественным мнением, если сделают выводы из всех переписок и запросов и т.д., и т.п. Нам и в голову не может прийти, на чем они решат обучаться. В целом речь идет о потере контроля над цивилизацией, причем не в каком-то там отдаленном будущем, а в ближайшие годы.  

Предпримет ли человечество совместные шаги по ограничению возможного вреда от использования ИИ? Судя по тому, как люди сообща «эффективно» решают такие вопросы, как искоренение бедности, устранение последствий климатических изменений, урегулирование конфликтов, - вряд ли. Скорее кинутся в новую гонку за преимуществами друг над другом при помощи ИИ. Это самый вероятный сценарий и, возможно, ИИ уже это понимает. Впрочем, возможно и то, что такой поворот для нашей цивилизации как раз и будет красной линией. 

В интервью NYT Хинтон заявил, что жалеет о работе всей своей жизни, но утешает себя оправданием: «Если бы я этого не сделал, это сделал бы кто-то другой». При этом ученый также добавил, что хотел бы иметь хорошее и простое решение, но у него его нет. И вообще он не уверен, что такое решение существует.



РЕКОМЕНДУЙ ДРУЗЬЯМ:

52


Актуально