Суббота, 23 ноября
Рига -1°
Таллинн -3°
Вильнюс -3°
kontekst.lv
arrow_right_alt Интервью

Программист: думать, что искусственный интеллект «мыслит», «чувствует» или «спрашивает себя», — это ошибка, за которую человеку, возможно, придется дорого заплатить

© F64

Весной в центре внимания всего мира оказалось письмо, подписанное мировыми лидерами в области технологий и исследователями искусственного интеллекта (ИИ). Авторы письма выражали опасения по поводу стремительного развития ИИ и призывали остановить дальнейшие эксперименты с ИИ. Хотя бы на шесть месяцев, пока мировое сообщество не разработает единую стратегию против новой угрозы.

Чтобы выяснить, насколько обоснованы эти опасения и угрозы и что новые технологические открытия обещают нам уже в ближайшем будущем, Neatkarīgā пригласила на интервью программиста с большим опытом в области эволюционных вычислений и большим интересом к отношениям человека и машины — Язепа Башко.

Почему вообще это письмо, которое подписали Илан Маск (Teslа), Стив Возняк (Apple), Яан Таллин (Skype) и многие другие, вообще появилось? Какие процессы сделали его актуальным?

Разговоры об угрозе ИИ не новы. Ученые, занимающиеся компьютерными науками, предупреждали об этом с тех пор, как в 1950 году Алан Тьюринг ввел это понятие, а футурологи и писатели — еще задолго до него. Мы переживаем это уже в пятый или шестой раз — когда начинаются разговоры о том, что вот-вот будет создан ИИ и уничтожит цивилизацию.

Есть ли основания полагать, что на этот раз опасения имеют под собой большую почву, чем раньше?

Прежде всего, следует отметить, что в течение последних десятилетий об ИИ все же больше говорили в позитивном ключе, это определение использовали с целью маркетинга. На ИИ возлагали большие надежды тогда, когда появились совсем простые, с сегодняшней точки зрения, детерминированные программы. Подобное происходило и тогда, когда появились синтезатор речи, нейронные сети, методы обработки больших данных. Но ни в одном из прежних случаев нельзя говорить о настоящем ИИ, все это обыкновенные вычислительные инновации, которые могут привести к какой-нибудь части искусственного интеллекта — например, к его рукам, глазам или ушам, но это еще не сам ИИ.

К примеру, в Латвии мы слышим новости о том, что ИИ может говорить голосом Иманта Зиедониса, что в Видземской больнице ИИ может распознавать переломы костей, а в Лиепае фиксировать нарушения дорожного движения. Пару лет назад я видел по зарубежному ТВ рекламу, утверждавшую, что в новых компьютерах есть ИИ. Но нет в них никакого ИИ, о чем надо было бы написать еще одно письмо миру.

Да, большая часть пиар-специалистов, программистов, художников, иллюстраторов, композиторов, работников новостных агентств и других создателей цифровых продуктов в не столь уж далеком будущем потеряют работу. Но это — как бы жестоко это не звучало — не является самой большой бедой, связанной с ИИ.

Чтобы не возникало путаницы с терминами, сформулируем, что такое ИИ на самом деле.

Алан Тьюринг определял ИИ как машину, которая вступает в контакт с человеком таким способом, что человек не может отличить, машина это или человек. Если машине удается обмануть человека, то это считается ИИ. В этом понимании мы достигли ИИ в прошлом году. Но я бы не оценивал это технологическое достижение так однозначно.

Если мы примитивизируем понимание того, кем является человек (а дигитализация делает это очень успешно), то задача становится намного легче. Очень непросто определить, имеем ли мы дело с искусственным интеллектом или современным человеком. Если человеку кажется, что возможны романтические отношения с виртуальным существом, то, наверное, этому человеку другой настоящий человек будет казаться невыносимо капризным по сравнению с алгоритмом. Часть проблемных случаев с современной сексуальной идентичностью связана именно со сложностями в формировании отношений с реальными людьми, особенно противоположного пола. Это перекликается с общим движением человека к максимальному уменьшению страданий. Чем легче, тем лучше.

Популярные сегодня виртуальные собеседники (именуемые в народе чат-ботами) по-прежнему стараются идти в направлении имитации человека, но все же в наши дни под ИИ (которого на самом деле следует опасаться) понимают нечто другое. Это машина, которая во много раз эффективнее способна решать задачи любого типа, в том числе осваивать методы решения задач, ей также доступны механизмы исполнения — средства, которыми она по своему усмотрению может воздействовать на физический мир. Многие говорят, что у машины должен наличествовать инстинкт самосохранения, но это не следует воспринимать как некий присущий ей экзистенциальный страх.

Думать, что искусственный интеллект «мыслит», «чувствует» или «спрашивает себя», — это ошибка, за которую человеку, возможно, придется дорого заплатить. Если мы говорим о машинах, то инстинкт самосохранения, как и другие компоненты сознания, — это лишь впечатление, возникающее у того, кто наблюдает со стороны. Самосохраниться машину заставляет закодированная в ней задача по максимизации желаемого результата.

Подобно тому, как в фильме Джеймса Кэмерона «Терминатор» киборг, роль которого исполнил Арнольд Шварценеггер, был запрограммирован на убийство Сары О’Коннор, и его больше ничего не интересовало — ни последствия, ни его собственная «судьба»?

Да, можно так сказать. Машина всегда старается по возможности лучше выполнить задание. Если машина лишится подачи энергии, она не сможет выполнить задачу, и поэтому она будет противиться попыткам отключить ее — без каких-либо долгих раздумий и осознания себя.

Пример с отключением «подачи электричества» весьма знаменателен, поскольку показывает закодированное «противоречие». Так как человек является единственным, кто может отключить ИИ, то в какой-то момент ИИ может понять, что человек — это его главный враг.

По крайней мере, пока ИИ еще не занимается «мышлением». Машины не думают, машины действуют. Впечатление о популярных чат-ботах как о людях — это только успешное введение в заблуждение и результат восприятия наблюдающего. Когда человек задает машине экзистенциальные вопросы, получаемые им ответы не являются плодом логических выводов, которые машина делает путем обработки данных и сотрудничества с человеком. Машина отвечает только теми фразами, которые она обнаружила в огромных массивах текстов. Научите иностранца произносить комплимент на латышском, и результат будет идентичным. Он широко улыбается и на ломаном языке произносит фразу, суть которой ему непонятна, но он производит хорошее впечатление на слушателя.

И под обучением роботов следует понимать именно это — подчинение робота заданиям, реагируя на которые он должен произвести по возможности самое хорошее впечатление на наблюдателя.

Вы сказали, что с введением ИИ многие люди потеряют работу. О конкретных профессиях говорить пока рано, но, может быть, возможно хотя бы понять направление?

Несколько конкретных профессий я уже перечислил. Так называемых специалистов по общественным отношениям можно назвать в первую очередь. В одном из недавних исследований было сказано, что новейшие инновационные методы вычисления менее всего угрожают тем, кто занимается физической и практической работой. Это диаметрально противоречит тому, что несколько лет назад рассказывали эксперты по занятости. Правда, в данном случае речь идет о самых последних связанных с ИИ прорывах. Это не означает, что в более отдаленном будущем автоматизация не будет угрожать и всем остальным.

Произошел ли в последнее время какой-нибудь существенный прорыв в развитии ИИ?

В ноябре 2022 года был публично запущен ChatGPT. Это инструмент, который интерпретирует текстовые инструкции и способен генерировать, переводить, объединять и редактировать тексты — и на человеческом языке (прежде всего и больше всего на английском языке), и на языках программирования. Это еще больше разрушает и без того изрядно пострадавшее доверие к достоверности информации в публичном пространстве. В настоящее время существуют несколько конкурентов этого чат-бота.

Ближайшими последствиями этих перемен станет то, что в системе образования завершится эпоха написания текстов в качестве своего рода теста на проверку знаний. Любую контрольную работу сможет сгенерировать чат-бот. На мой взгляд, это перемена к лучшему, поскольку текст сам по себе является только знаком, которым пытаются подтвердить знания, но этих знаний у того, кто сдает данный текст, может и не быть.

Если мы говорим об угрозах для человечества, то самую большую угрозу создают способности ChatGPT анализировать, генерировать и обрабатывать код компьютерной программы. Так как весь мир уже в большей или меньшей степени запрограммирован и двигается через программатуру, то новый инструмент (или какая-то менее защищенная подобная ему альтернатива) открывает возможности для того, чтобы быстро, не имея ни знаний, ни понимания, генерировать потенциально разрушающие программы.

Эти программы для выполнения своих задач могут использовать серверы центров данных, воздействовать на встречающиеся повсюду умные устройства, оборудование, подключенное к интернету, а также на людей, использующих платформы по предоставлению удаленных услуг. Уже в течение некоторого времени доступно распознавание и синтез речи, генерирование фото и видео с высокой степенью достоверности.

В комбинации с генерированием и обработкой текста это означает, что любой удаленной связи по умолчанию нельзя доверять, вне зависимости от того, голосовая ли это связь или видеозвонок.

Подобно ситуации в фильме «Терминатор», когда киборг-убийца в исполнении Шварценеггера звонит разыскиваемой Саре О’Коннор и голосом ее матери просит рассказать, где она скрывается.

Именно так. Совсем скоро все, что вы видите и слышите в цифровом формате, может оказаться целенаправленно сгенерированным, чтобы казаться тем, чем оно не является. Единственное — если вы используете авторитетные, стандартные каналы, вы находитесь в относительной безопасности. Подчеркиваю, в относительной, поскольку стопроцентную гарантию даст только прямой физический контакт.

Если я правильно понимаю, то, по крайней мере пока, угрозы так называемого ИИ являются больше теоретическими. Каковы возможности предотвратить эти угрозы с развитием ИИ-технологий?

Хотя в инструмент ChatGPT и стараются встроить защитные механизмы, которые мешают использовать этот инструмент для сомнительных целей, это, на мой взгляд, только вопрос времени — до первого работника-негодяя или до того времени, когда этот же инструмент, но без ограничений сделают и будут пытаться продавать другие игроки. Или ограничения будут обходить, используя хитрости языка.

Часть алгоритмов можно найти в научных публикациях. Вызовом является огромный объем загружаемого текста и его обработка, необходимые, чтобы генерировать большие модели языка, на которых базируется инструмент. Возможно, специалисты опасаются, что ChatGPT или подобный инструмент, нацеленный на неправильные задания, и со слишком свободной возможностью манипулировать собой и окружающим миром, может создать настоящий всеобщий ИИ.

И хотя ChatGPT сам не может подключаться к интернету, и его создатели осторожны, другие могут использовать инструмент как компонент, обрабатывающий текст, для создания Франкенштейна. Не знаю о соединимости других инструментов с интернетом, но ответственным программистам надо бы держаться на расстоянии от таких решений, которые дают возможность неконтролируемо пополнять «знания» в интернете.

Риски являются реальными, для беспокойства есть основания. Но перед тем, как браться за тушение очередного пожара через введение методов наднациональных институций (к чему призывает упомянутое письмо), надо понять природу проблемы. Следует понять, что данные инструменты — это только средство. Именно поэтому в упомянутом письме речь идет о неконтролируемом соревновании. Любое средство можно использовать и для хороших, и для плохих целей.

Невозможно установить на дуло револьвера программу распознавания лиц , которая и будет решать — производится ли выстрел в «хорошего» или «плохого» человека. Вся ответственность ложится на того, кто использует оружие.

Прежний мировой опыт свидетельствует, что моральные факторы хотя и работают как серьезные ограничители, но не в состоянии обеспечить стопроцентную безопасность.

Человек пытается создать технологические решения для проблемы сохранения морали. Эта проблема вкупе с проблемой обеспечения беззащитных и неспособных становится все актуальнее для общества разобщенных индивидуумов, которое мы, к сожалению, строим. Но, на мой взгляд, нет другого решения, кроме выдвижения на первый план морального воспитания и образования.

Конечно, в комбинации с поддержанием физических и виртуальных границ. Подобно тому, как на кораблях и подводных лодках существуют отсеки — для того чтобы уменьшить влияние одного повреждения, так и общество должно поддерживать разделение сил. Технологические решения для поддержания морали обречены на подобный Чернобылю исход, если люди, которые управляют технологиями, из-за собственной трусости будут не в состоянии вовремя признать свои ошибки.