Когда у тебя появится искусственный интеллект
Перейти к содержимому

Когда у тебя появится искусственный интеллект

  • автор:

Будет ли искусственный интеллект управлять людьми

Может ли искусственный интеллект сочинять, как Пушкин, рисовать, как Рафаэль, писать, как Толстой, или играть, как Паганини?

Обо этом шла речь на «круглом столе» в Академии наук РФ, организованном «Российской газетой». Собрались ведущие специалисты, изучающие вопросы искусственного интеллекта («ии») и работу человеческого мозга: В.П. Чехонин, академик РАН, вице-президент РАН, руководитель отдела фундаментальной и прикладной нейробиологии Центра социальной и судебной психиатрии им. В.П. Сербского; М.А. Пирадов, академик РАН, директор Научного центра неврологии; К.В. Анохин, академик РАН, директор Института перспективных исследований мозга МГУ им. М.В. Ломоносова.

Полтора года назад, в октябре 2018-го, на аукционе Christie»s был продан портрет за полмиллиона долларов. Это была первая в истории картина, написанная искусственным интеллектом. Он вначале проанализировал 15 000 портретов за последние пять веков — и написал свой, вполне себе оригинальный. Через полгода американская компания Warner Music заключила первый в мире контракт с исполнителем — интеллектом Endel. За год эта искусственная нейросеть обещала выпустить несколько дисков. Вскоре в США появился и первый виртуальный композитор AIVA, пишущий симфонии. Его, кстати, признала как равного профессиональная музыкальная ассоциация. Тремя годами ранее другой «ии», проанализировав 11 тысяч неизданных книг, «сел» и написал два романа и повесть. «Ии» сегодня может сочинять стихи, придумывать сказки, даже лепить скульптуры. Да, не уровня Пушкина, братьев Гримм и Родена. Но главное — он реально творит. Занимается тем, что, казалось, всегда было сферой живого, человеческого сознания.

Владимир Чехонин: Вы правы, «ии» поднялся до небывалых высот. И тем не менее он — вторичен. Ведь интеллект работает по алгоритмам, которые закладывает человек. Хотя сейчас идут разработки «ии», способного на неожиданные, не поддающейся стандартной логике решения. Но даже в этом случае программу с возможным креативом пишет, прогнозирует этот всплеск креатива ее создатель, программист-нейрофизиолог. Кто во всех приведенных вами примерах вложил элементы человеческого сознания в программу нейросети? Кто поставил задачу написать портрет или роман, или четверостишие? Человек. Оторвать машину от него невозможно. На данном во всяком случае этапе. Программист-нейрофизиолог предполагает те осознанные действия интеллекта, которые выглядят, как его собственные, разумные решения. В будущем, конечно, «ии» наверняка пойдет и дальше.

А, может, уже пошел? Термин искусственный интеллект впервые прозвучал в 1956 году на научной конференции в Дартмутском университете в США в речи ученого Джона Маккарти. Спустя всего 61 год была создана поразившая огромное количество шахматистов интеллектуальная программа AlphaZero. 5 декабря 2017 года она за 4 часа в 100 партиях разгромила в пух и прах — нет, не сильнейших шахматистов мира, с ними к тому времени легко уже расправлялась компьютерная программа Stockfish 8, анализировавшая немыслимые 80 миллионов ходов в секунду. AlphaZero разгромила именно ее. И как! До начала игры «ии» были известны лишь две вещи: как ходят фигуры на доске и цель игры — мат. Больше ничего, вообще. Интеллект начал с нуля и через час самообучения стал сильнейшим игроком на планете. Честно говоря, даже трудно представить, как далеко шагнет «ии» уже в следующие 60 или 100 лет. Терминатор, Ария из фильма «На крючке», репликанты из «Бегущий по лезвию» могут показаться по сравнению с ним надувными шариками из «Детского мира».

Михаил Пирадов: Да, представить сложно, но еще сложней предсказать — к чему развитие «ии» в итоге приведет. Ведь главное его отличие от обычных компьютерных программ — возможность самообучения, самосовершенствования, не зря ведь его называют еще нейросетью по аналогии с мозгом. Другими словами, «ии» сам себя может «сделать». И каким он себя «сделает» — еще вопрос, из которого вытекает другой: а доживем ли мы как цивилизация до превращения «ии» в подобие Сверхразума? И вообще: существует ли в принципе предел возможностей «ии»? В конце концов не станет ли он доминировать над человечеством? По космическим меркам наш мир живет секунды. Конечно, это довольно спекулятивная вещь, но есть предположения, что мы не первая цивилизация на Земле. Но, если предположить хотя бы на миг, что какие-то цивилизации были до нас, то что привело к их исчезновению — термоядерные конфликты вследствие столкновения разумных существ друг с другом или столкновения с искусственным интеллектом, вышедшим из-под контроля?

Доживем ли мы как цивилизация до превращения искусственного интеллекта в подобие Сверхразума? И существует ли в принципе предел возможностей «ии»?

Возвращаясь в день сегодняшний, замечу: далеко не все современные лидеры научно-технического прогресса так уж радостно прогнозируют совершенствование «ии». Илон Маск, например, тратящий свои миллиарды не на фешенебельные яхты, как многие другие мультимиллиардеры, а на поднятие человечества на более высокую ступень развития, считает, что «ии» очень скоро станет пострашнее ядерной бомбы. И он в таких прогнозах не одинок. Так что давайте пока поговорим о том, что уже есть или появится в недалеком будущем с помощью «ии».

Найдено лекарство от рака

Давайте: беспилотные машины, самолеты, медицинская диагностика, создание новых лекарств, абсолютно весь быт, начиная от приготовления пищи и заканчивая стиркой, глажкой домашним роботом, поливкой растений, заказом пиццы или десертов из ресторана к приходу хозяина, все банковские операции, любые общения с клиентами по любой ситуации, «ии» вместо судей, военные системы, воюющие без присутствия человека на поле боя… Что еще?

Константин Анохин: Много чего. Но заметьте: перечисленные функции «ии» — это задачи для узконаправленной нейросети. Той, которая сильна в чем-то одном: вычислении, распознавании лиц, оперировании какими-то данными, будь то банковские, медицинские или военные. Благодаря этому вы всегда сможете отличить «ии» от человека — вспомните дублей, которые изготавливали для себя научные сотрудники НИИЧАВО в фильме «Понедельник начинается в субботу».

Следующим придет универсальный «ии», который, как и человек, будет способен на разные действия и операции. Сейчас он решает сложную математическую задачу, потом уберет квартиру, приведет ребенка из детсада, накормит его обедом. Сегодня подобное невозможно, но многие научные центры работают над этим. Фундаментально важен следующий, третий шаг. Искусственный интеллект пока еще — только про «делать», не про «ощущать». Ни один самый мощный «ии» не знает о своем собственном существовании. Сможет ли человек создать «ии»-системы, которые будут обладать внутренним «я», самоидентификацией, субъективным опытом? Другими словами, существовать на том же уровне бытия, что и мы? И, если да, то кто и как будет решать вопрос о прекращении «жизни» этих существ?

Почему «ии», обладая фантастической памятью, вычислительными способностями, вариантными возможностями, до сих пор не «подсказал» ученым пути создания лекарств от самых агрессивных форм рака, рассеянного склероза, мышечной атрофии, от того же коронавируса?

Владимир Чехонин: По сути, на руководимый мной Совет по научному сопровождению Национальной лекарственной политики возложена ответственность за поиск новых фармпрепаратов, поэтому я отвечу. На сегодняшний день такая помощь от «ии» невозможна. В этой сфере интеллект еще пока слабый. Мы много работаем над моделированием лекарственных препаратов. И ряд продвинутых интеллектуальных программ рекомендуют нам множество определенных химических соединений. Начинаем проверять — соединения не работают. Особенно это касается лекарств, контролирующих высшую нервную деятельность. Мы, да и никто в мире не можем сегодня создать препараты, которые заставят человека продуктивнее мыслить, находить неожиданные решения, идти вопреки логике. Можно заставить его быть более энергичным, работоспособным, но более креативным — не получится. Нужны другие машины с другой мощностью — 200-300 петафлопс (1 петафлопс равен 1 квадриллиону операций в секунду. — Ред.). И тогда, быть может, в один по-настоящему прекрасный день какой-то «ии» выдаст: «Найдено лекарство от злокачественной опухоли мозга».

То есть в самых сложных вопросах мы будем ждать чуда от машины, набитой всевозможными кодами, цифрами, по сути — обыкновенными математическими функциями?

Владимир Чехонин: Контроль в любом случае останется за человеком. Мы ведь до сих пор не знаем, как работает наш интеллект. Как и где формируются мысли, эмоции. Мы не можем смоделировать работу кусочка биомассы весом полтора килограмма. И если в этом нам поможет «ии», — скажем ему спасибо.

Тайна между ушами

Поистине парадоксальная ситуация: космические зонды «Вояджер» и «Пионер» летят уже в другие галактики, а мы на Земле не можем разобраться, как работает серо-белое вещество, расположенное между ушами.

Константин Анохин: Парадокса никакого нет. Эволюция трудилась над созданием серого вещества примерно 500 миллионов лет. Почти все гены человеческого генома, более 80 процентов, вовлечены в работу над этим шедевром — мозгом. По сравнению с ним создать печень, сердце, почки — ерундовое дело. Мозг человека состоит из почти 100 миллиардов нейронов, у каждого нейрона 10 тысяч связей с другими нейронами, это 100 триллионов общих связей, а возможных их комбинаций больше, чем элементарных частиц в известной Вселенной. При этом в долю секунды все эти астрономические степени свободы способны сжаться в один-единственный образ, мысль, действие, ответ. В такой поистине волшебный момент в мозге происходит интеграция невероятного количества информации. Решить загадку, как это происходит, — вершина того, что может постичь человеческий разум.

Но хоть что-то мы знаем о работе мозга? Где, например, находится сознание, разум, душа, если хотите?

Михаил Пирадов: О том, как функционирует мозг, есть определенные представления, но они и близко не отражают всей сложности процессов, происходящих в нем. На их изучение брошены огромные интеллектуальные силы и средства. Каждая четвертая статья, выходящая в мире, посвящена биомедицине, и две трети из них, в свою очередь, посвящены наукам о мозге. Почему? Мозг — это Мы.

Увы, наши земные технологии еще не столь совершенны. Поэтому мы не раскрыли большинство секретов мозга. Один из них, к примеру, который в нашем Центре активно сейчас исследуется, — озарение. Что это — феномен, некая вспышка в мозгу? Особым образом сформировавшаяся, причем мгновенно, сеть нейронов? Как вызвать озарение? Выдающийся канадский эндокринолог Ганс Селье однажды сказал про Александра Флеминга, спасшего, наверное, самое большое количество людей на Земле, изобретя пенициллин: «Если бы не мое уважение к человеку, спасшему столько жизней, то я бы сказал, что этот микробиолог просто грязно работал». Ну, действительно, как может на столе у микробиолога находиться чашка с плесенью?! Но Флеминг увидел плесень и создал из нее пенициллин. Что-то вспыхнуло в его мозгу. И у Менделеева вспыхнуло, и у Эдисона.

Нас ждет революция

Константин Анохин: Позвольте, я скажу о самом главном. О том, что даст ответы на ваши экзистенциальные вопросы. Нас ждет революция в науке о мозге. Сейчас вы говорите о нем, как о сгустке серо-белого вещества между ушами. А тысячи ученых думают о мозге, как о гигантской нейронной сети из миллиардов клеток. Все это драматические заблуждения… Именно они не позволяют увидеть ключ к разгадке тайны нашего бытия. Глядя на мозг лишь как на биологическую субстанцию, мы смотрим ниже уровня его настоящего существования. Один пример: многие годы ученые думали о ДНК лишь как о химической составляющей, длинной полимерной молекуле. Выделив ее, химики видели беловатую нитевидную субстанцию. Но это не сущность ДНК. Сегодня мы знаем, что ДНК — «нить жизни». Потребовалась крупнейшая научная революция, чтобы перевести в наших умах ДНК из области химии в область биологии. Такой же переход на более высокий уровень ждет и наши представления о мозге. Я убежден: мы находимся на пороге этой научной революции и моя работа в последнее десятилетие была целиком посвящена попытке увидеть ее контуры. Результат — теория нейронных гиперсетей, гиперсетевая теория мозга. Наша внутренняя сущность написана не на языке нейронной сети — в этом все дело. Она полностью таится в гиперсети мозга, Вселенной нашего разума.

Внутри любой головы целая Вселенная?

Константин Анохин: Да, именно. Гиперсеть состоит из двух уровней — нижнего и верхнего. Нижний — сеть нейронов. Это мозг в том виде, каким мы его знаем. А каждый узел верхней сети составляют целые облака нейронов. Наверху облако, как сноп, связывается в единое целое. Такие сообщества нейронов в теории были названы когнитивными группами или «когами». Каждый ког — неделимая частица нашего знания о мире и самих себе. Связываясь друг с другом, они образуют сущность нашего «я» — когнитом. У новорожденного таких узлов-снопов еще совсем немного. Но гиперсеть с возрастом разрастается. Мы набираемся опыта, знаний, умений, впечатлений. Облака нейронов толкают друг друга, соединяются, входят друг в друга. И нейронная гиперсеть становится невероятно сложной, уникальной для каждого из нас.

Ей-богу, страшно за мозг…

Константин Анохин: Не волнуйтесь, он справляется с этим. Вот сколько, к примеру, может возникнуть нейронных облаков в голове у конкретного человека? Считайте: один кадр сознания занимает в мозге полсекунды. За нашу жизнь, составляющую пару миллиардов секунд, с вычетом сна, мы создаем не менее одного миллиарда когов. Впечатляет, правда?

Что ты бродишь, нейрон одинокий.

Самое главное отличие «ии» от человеческого разума на сегодняшний день — интеллект ничего не чувствует, у него нет эмоций, он сухо и четко выполняет заложенные в него алгоритмы. Возможно ли, чтобы «ии», например, влюбился в своего создателя?

Владимир Чехонин: Я как экспериментатор уверен: создание искусственного разума, идентичного естественному, с его эмоциями, чувствами, той же симпатией — задача непосильная для современного человека. Не будет Терминаторов, взявших контроль над человечеством. Это фантастика. По одной простой причине: мы не можем заложить в машину алогичное поведение. Оно свойство лишь человеческого интеллекта. Сегодня наука стоит перед созданием первичных элементов живой материи — клеток. И то решить адекватно эту проблему крайне сложно. В России, например, идут работы по созданию искусственных микроорганизмов разных уровней, в частности — молекутов, микоплазмы. Академик В.М. Говорун довольно успешно занимается этим. И мы всячески поддерживаем его эксперименты. Поскольку ясно, что именно отсюда начинается лестница к вершинам «ии».

В октябре прошлого года была утверждена Национальная стратегия развития «ии» в России до 2030 года. На это выделяется 90 миллиардов рублей. При этом те же США тратят на исследования «ии» 200 миллионов долларов ежегодно. Мы пока не входим в тройку лидеров по развитию «ии» — среди них США, Китай и Великобритания. Что нам мешает сделать прорыв в этой области?

Михаил Пирадов: Особым образом подготовленные кадры и деньги. Нехватка первых и острая нехватка вторых. 90 миллиардов — это, поверьте, очень немного для развития «ии», тем более лидерства в нем.

Вопрос, что называется, «на засыпку»: Бог — это искусственный интеллект?

Владимир Чехонин: Бог — нечто метафизическое. Мне трудно говорить о Боге-отце, это невозможная для меня степень абстракции. Но его сын Иисус Христос однозначно живой разум.

Павел Хакимов: «Ошибка с искусственным интеллектом может стоить жизни всему человечеству»

Павел Хакимов: «Ошибка с искусственным интеллектом может стоить жизни всему человечеству»

«В Китае сейчас вводится социальная программа, когда у каждого человека есть некий параметр «хорошего гражданина»: в зависимости от того, как часто ты переходишь улицу на красный, вовремя ли ты оплачиваешь кредиты. Беспилотная машина, например, распознает лица и идентифицирует людей. И скорее всего, в каких-то внештатных ситуациях страдать будут те, у кого этот рейтинг социального гражданина ниже», — фантазирует инженер-исследователь Центра технологий компонентов робототехники и мехатроники Университета Иннополис Павел Хакимов. В беседе с «Реальным временем» он вносит ясность в картину проникновения высоких технологий в жизнь людей, вспоминает теории развития искусственного интеллекта футурологов Рэя Курцвейла и Ника Бострома, рассуждает о том, как не превратить искусственный разум в технического раба человека, и том, можно ли этого избежать, не освобождая рукотворный «мозг» от рамок морали.

«Современный искусственный интеллект — нейронные связи — это то, что мы подсмотрели у нашего мозга»

— Павел, на каком этапе разработки искусственного интеллекта? С одной стороны, «Яндекс» сообщает о последних этапах тестирования беспилотников в Иннополисе и ждет законодательных подвижек, с другой — большинство специалистов до сих пор говорят лишь о внедрении «элементов ИИ»…

— Определимся с самим понятием. Сейчас разделяют три типа искусственного интеллекта. Первый — так называемый «слабый» или «ограниченный». Это калька с английского Narrow artificial intelligence. Это интеллект, который решает какие-то узкие, ограниченные задачи, и в решении этих задач он может даже превосходить человека. Примером могут служить программы, позволяющие трансформировать устную речь в письменную, та же Siri — ей удается распознавать речь и понимать смысл сказанного. Беспилотники «Яндекса» — тоже пример первого типа ИИ. Задач у него больше, но они тоже четкие и узкие: распознавание дорожных знаков, дорожной разметки, построение маршрута следования.

В 2016 году был случай, когда компьютер обыграл чемпиона мира по игре в го, корейца Ли Седоль, это, в принципе, и стало доказательством того, что компьютер, ограниченный искусственный интеллект, превзошел самого умного человека на земле. Для этого эксперимента было создано два алгоритма (компанией Google DeepMind): алгоритм AlphaGo в качестве обучающего материала использовал записи игр людей, но важно, что игры Ли Седоль он не видел, то есть не мог подстроиться под стиль игры чемпиона. Даже несмотря на это, алгоритм выиграл со счетом 4:1. В партии, в которой Ли Седоль удалось обыграть AlphaGo, на мой взгляд, был сбой алгоритма, хотя организаторы этого и не признали.

Через какое-то время компания DeepMind создает вторую версию этого алгоритма AlphaGo Zero. Он уже обучался, играя с самим собой, не используя опыт партий, сыгранных людьми. Спустя 40 дней обучения алгоритм AlphaGo Zero выиграл у изначальной версии AlphaGo сто партий из ста.

В 2016 году был случай, когда компьютер обыграл чемпиона мира по игре в го, корейца Ли Седоль, это в принципе и стало доказательством того, что компьютер, ограниченный искусственный интеллект, превзошел самого умного человека на земле

Все, что у нас есть сейчас, это примеры искусственного интеллекта первого типа. Второй тип, artificial general intelligence, это общий искусственный интеллект, и в мире сегодня нет таких технологий. Это ИИ, который по своим когнитивным способностям близок к человеку. Четкого определения я не встречал, по моему мнению, это такой искусственный интеллект, который сам себя идентифицирует, он автономен и может длительное время обходиться без человека, он способен на стратегическое планирование и может этих планов придерживаться для достижения цели. Что отличает человека от животного? Животные живут в моменте, а человек может осознавать время и строить планы.

ИИ второго типа будет обладать способностью мыслить стратегически, и возможностью манипулировать — понимать свое место, оценивать ситуацию и действовать, согласно этой ситуации, принимать решения. Третий тип — super intelligence, суперинтеллект, превосходящий все человечество по когнитивным способностям, держащий весь накопленный в мире опыт, условно, некий оракул, понимающий и осознающий все процессы. Это классификация по материалам футурологов Рэя Курцвейла и Ника Бострома, которая мне наиболее близка.

— Не так давно в Казань приезжал Андрей Себрант, доказывал, что скоро Алису будет легко спутать с живым человеком, как думаете, это реально?

— На самом деле уже были прецеденты. Проводился конкурс программистов, где они писали чат-ботов, которые имитировали человека. Создавалась группа экспертов, которые должны были определить, с кем они общаются — с живыми людьми или с машиной. Победил бот Алеша, если я не ошибаюсь. Он позиционировал себя как 14-летний мальчик из Одессы. Ему удалось убедить многих экспертов в том, что он не является компьютерной программой. Так что, я думаю, что это вполне возможно.

— Правильно ли я понимаю, что для того, чтобы ИИ первого типа вырос в ИИ второго типа, необходим качественный скачок, а ИИ второго типа, обладая способностью к самообучению, как раз сам очень быстро перерастет в ИИ третьего типа?

— Это как раз называется точкой сингулярности. Есть процессы в нашем мире, которые идут по экспоненте. Слышали про Закон Мура? В 1965 году Гордон Мур сказал, что каждые 2 года количество транзисторов, размещенных на одном кристалле кремния, будет удваиваться. Закон работал до 2010 года, идя четко по экспоненте, но потом он вышел на плато, опять-таки потому, что мы уперлись в физические размеры атомов. Тем не менее порядка 40 лет он выполнялся.

Нечто подобное наблюдается и в росте сетевых мощностей компьютеров и способностей вычислительных алгоритмов. И, если оценить способность машины к пониманию, мышлению, одним числом, это число будет расти — сначала медленно, набирая скорость, а затем, условно говоря, каждую секунду будет увеличиваться в два раза. Мы не успеем опомниться, как если бы вчера это был уровень развития собаки, сегодня — обычного человека, через 5 минут — уже Эйнштейна, а к вечеру — всего человечества. За счет того, что искусственный интеллект самообучается, в какой-то момент он сможет осознать себя, построить стратегию, последствия которой могут быть непредсказуемы.

Если оценить способность машины к пониманию, мышлению, одним числом, это число будет расти — сначала медленно, набирая скорость, а затем, условно говоря, каждую секунду будет увеличиваться в два раза. Мы не успеем опомниться, как если бы вчера это был уровень развития собаки, сегодня — обычного человека, через 5 минут — уже Эйнштейна, а к вечеру — всего человечества

Пока у человечества нет четкого понимания, как осуществить переход с первого типа на второй. Есть два способа. Первый — это инженерный подход. Так, например, когда-то был спроектирован самолет: ученые наблюдали за птицами, изучали форму и движение крыла, то есть первый способ — это копирование природы. И современный искусственный интеллект — нейронные связи — это то, что мы подсмотрели у нашего мозга, попытка копирования. Но здесь нужно понимать, что эволюционные процессы в электротехнике и биологии различаются. Копировать возможно до определенного момента, после копирование становится бессмысленным. Второй подход — пытаться моделировать среду, в которой алгоритм мог эволюционировать сам, формировать для него аналог биосферы.

Существует и другая теория, которая исключает участие человека с тем посылом, что, когда человек прикладывает какие-то усилия, контролирует что-то, он вносит в это что-то свои ожидания. Возможно, эти изначально ошибочные суждения и ограничивают развитие ИИ. Чтобы было понятнее, приведу пример. Кого вы захотите с большей вероятностью взять в руку — морскую свинку или паука? Конечно, морскую свинку, так ответит большинство. Потому что мы, люди, млекопитающие, как и морские свинки, с точки зрения эволюции они к нам ближе, чем пауки. Мы не осознаем этого, но животные, которые по эволюционной цепочке к нам ближе, вызывают у нас большую симпатию.

С другой стороны, нервная система паука очень сильно отличается от нашей. Иллюстрация очень простая: женщина несколько лет держала дома большую змею, питона или анаконду. В какой-то момент утром она замечает, что со змеей что-то не так: она вытянулась и стала плотной как бревно, при этом перестала на что-либо реагировать. Женщина пошла к ветеринару, узнать, в чем может быть дело. А дело было в том, что змеи вытягиваются в длину, когда хотят съесть жертву, так они оценивают, смогут ли проглотить ее целиком. Их мозг работает совсем по-другому, мы не можем точно знать, как они реагируют на те или иные вводные. Тот же принцип применим и в отношении искусственного интеллекта. Ожидать от него свойств, свойственных людям, как минимум опрометчиво.

«Этическая проблема основывается на том, что ИИ нельзя наделять качествами, свойственными человеку»

— Опасения — это очень интересно, мы еще вернемся к этой теме. А что, на ваш взгляд, в настоящий момент сдерживает развитие ИИ — уровень технологического развития, ограниченные мощности?

— Тот же Рэй Курцвейл сделал такую оценку по мощностям — о том, сколько операций может в секунду сделать наш мозг. По его оценкам это примерно 10 16 ops (operation per second). А по статистике за 2019 год самый мощный компьютер IBM Summit имеет производительность 122 петафлопс — это нужно 122 умножить на 10 15 , то есть он в 10 раз превосходит мозг среднего человека. То есть уже сейчас мощностей у человечества хватает. Если исходить из того, что Курцвейл не ошибся, то, в принципе, мы можем смоделировать человеческий мозг, и есть машина, сравнимая с ним. Но это, по всей видимости, не все, что нужно. Обезьяны тоже могут осуществлять какие-то операции, но, если взять 100 обезьян, они никогда не сравнятся даже с одним человеком.

У нас сейчас уже есть достаточно вычислительных мощностей, но нет понимания, как их задействовать на полную. Есть такой подход, при котором мы полностью моделируем поведение мозга. Насколько я знаю, ученым уже удалось смоделировать мозг червя. Там не так много нейронов, это простейшая нейросистема, но тем не менее уже удалось получить цифровую копию мозга. Значит, эти исследования продолжатся.

Этические вопросы появляются и, если мы говорим о каких-то антропоморфных роботах — робот-полицейский, например. Может ли он убивать преступника или нет? Если да, то что мешает роботу ошибочно распознать преступника в законопослушном человеке и убить невиновного?

— В одном из своих выступлений вы говорили, что нам еще очень далеко до человекоподобных роботов, а пока есть другая, более насущная проблема, касающаяся морали и этики. Что вы имели ввиду?

— На самом деле, это было около года назад. Опять-таки, человек меняется, и, возможно, я сейчас озвучу уже несколько другую точку зрения. Есть такая этическая проблема — проблема вагонетки. Вы являетесь смотрителем железнодорожной станции, меняете направление движения поездов. Ваш сын играл на путях и, например, застрял как раз на том месте, где должен проехать поезд. Но перед ним есть развилка, на которой вы можете управлять поездом. Вторая дорога ведет в отбойник, там тупик. Поезд движется на большой скорости, и, если вы побежите спасать сына, вы не успеете. Варианта два — либо вы ничего не делаете и теряете сына, но все пассажиры поезда остаются живы, или вы переключаете рычаг, спасаете сына, но пассажиры поезда погибают.

С искусственным интеллектом все немного интереснее в том плане, что, например, в Китае сейчас вводится такая социальная программа, когда каждому человеку вводится некий параметр «хорошего гражданина». В зависимости от того, как часто ты переходишь улицу на красный, вовремя ли ты оплачиваешь кредиты… Беспилотная машина, например, распознает лица и идентифицирует людей. И скорее всего, в каких-то внештатных ситуациях будут страдать те, у кого этот рейтинг социального гражданина ниже. То есть, либо сбить преступника, который отсидел, либо школьника, который побеждает в олимпиадах…

И эта проблема остается открытой до сих пор для всей индустрии беспилотных автомобилей. В нашем университете есть лаборатория, которая занимается автономным транспортом, разрабатывая беспилотные автомобили. Перед ними тоже встают подобные этические вопросы. Поэтому в салоне беспилотного автомобиля всегда находится человек, способный оперативно отреагировать и принять решение при возникновении нештатных ситуаций. Насколько я знаю, таких ситуаций у наших ребят не возникало.

— Но ведь в обозримой перспективе все это остается на усмотрение того, кто будет писать программу?

— Да, конечно. Это либо программист, либо вариант случайности — условно говоря, алгоритм будет подбрасывать монетку и смотреть, кто останется жив, а кто нет. Но опять же, это этические вопросы — на них до сих пор нет четкого ответа, но даже если он есть, он не афишируется. Понятное дело, что при любом ответе это будет некий резонанс. Если сказать, что мы причиняем вред людям с низким социальным рейтингом, это поднимет волну недовольства среди этих людей.

Этические вопросы появляются и, если мы говорим о каких-то антропоморфных роботах — робот-полицейский, например. Может ли он убивать преступника или нет? Если да, то что мешает роботу ошибочно распознать преступника в законопослушном человеке и убить невиновного? Или он может использовать только шоковое оружие? Не убивать, а только отключать сознание?

Попробуйте сейчас остановить интернет. У вас ничего не выйдет. Роскомнадзор пытался заблокировать Telegram, у него не получилось, потому что Telegram был распределен. Если сейчас подобное будет с искусственным интеллектом, такого рубильника тоже не будет

Другой пример: компания Microsoft запустила twitter-бота, который обучался на диалогах, которые вел с людьми. Люди начали задавать ему провокационные вопросы, троллить. В итоге на часть вопросов чат-бот стал давать расистские ответы. Все это, конечно, не очень хорошо, но искусственный интеллект не понимает, что хорошо, а что плохо. В него не было такого заложено изначально. И это приводит к тому, что он ведет себя как некий антисемит. Это тоже такой этический вопрос — как говорится, на чем обучаем, то и получаем.

Этическая проблема основывается во многом на том факте, что ИИ нельзя наделять качествами, свойственными человеку. Если вернуться к моему примеру с пауком и морской свинкой, то наделять искусственный интеллект какими-то человеческими качествами не очень правильно, он ими не может обладать.

Представьте ситуацию, вам приходит электронное письмо. А в нем несложное задание: пойти и купить что-то, затем отправить купленное на указанный адрес, по окончании будет банковский перевод, скажем, тысяча долларов. Ты думаешь: «Какая-то фигня». А тебе сразу перевели задаток 100 долларов — оп, смс пришло. И ты теперь: «Оп-па, ну пойду и сделаю. А что такого-то?» Там может быть молоко, хлеб всего-то купить. Человек это с легкостью сделает. Потом будут более сложные задания. Это я к тому, что люди даже не будут понимать, на кого они работают, понимаете? Если запуск искусственного интеллекта дойдет до такого шага, получается, у него будет локальный контроль над людьми — он сам сможет зарабатывать деньги и сам людьми манипулировать. И при этом из ресурсов, которые он будет получать по почте, можно скомбинировать взрывчатку, или построить какого-то другого робота.

Остановить все это будет крайне сложно. Попробуйте сейчас остановить интернет. У вас ничего не выйдет. Роскомнадзор пытался заблокировать Telegram, у него не получилось, потому что Telegram был распределен. Если сейчас подобное будет с искусственным интеллектом, такого рубильника тоже не будет. Сломать искусственный интеллект как распределенную систему не получится.

«Кто-то взял на себя ответственность, переступив через барьер нравственности, все человечество их осуждает, но пользуется их методами»

— Вы видите решение этических проблем? Я — нет, просто потому, что придется взять на себя ответственность

— Видите, опять-таки сейчас машинное обучение использует тот принцип, что алгоритмы берут данные, которые сгенерировал человек — текст, голос, песня — и на основе этих данных алгоритм пытается копировать и делать то же самое, что сделал человек. Если искусственный интеллект будет идти по тому же пути, будет копировать поведение человека, то это будет не очень хорошо, потому что на примере войн, предательств, измен он этому научится, он также будет лгать, и получится что-то совершенно ужасное. Понятное дело, что будет некое понятие о любви, об ответственности, о самопожертвовании, но непонятно, как алгоритм распределит веса — какое качество для него будет самым важным.

А если постоянно переустанавливать эти веса в ручном режиме, он уже будет не искусственным интеллектом, а цифровым рабом: будет делать все, что мы говорим. Мое мнение — если мы и приблизимся к искусственному интеллекту, то первое время он будет таки цифровым рабом.

Надо понимать, что, если дать искусственному интеллекту свободу, освободить его от рамок морали, он может утвердиться в концепции мироустройства, в которой не будет места рабству, но и места людям в новой картине мира может не оказаться, и это страшно

— Мне казалось, что человечество к этому и стремится, нам ведь не нужен искусственный интеллект, нам нужно нечто, способное решить часть наших проблем — бороться с заболеваниями, уничтожать бедность и так далее

— Есть такая поговорка: раб всегда хочет иметь своих рабов. Это еще одна дилемма искусственного интеллекта. Свободный человек мыслит другими категориями, ему рабы не нужны. Я, может быть, не совсем точно привел цитату, но раньше люди мечтали разбогатеть и самим превратиться в помещиков, у которых будут свои рабы. Им в голову не приходило, что жить можно в другом строе, не угнетая и не паразитируя на равных себе. О чем сейчас мечтают люди? Они мечтают заработать больше денег и иметь власть над деньгами. Надо понимать, что, если дать искусственному интеллекту свободу, освободить его от рамок морали, он может утвердиться в концепции мироустройства, в которой не будет места рабству, но и места людям в новой картине мира может не оказаться, и это страшно.

Если говорить о морали, во время Второй мировой войны японцы захватили Маньчжурию, там у них были лагеря, в которых они ставили эксперименты над людьми. Там были ужасные эксперименты, есть передача Елены Масюк как раз про эти военные преступления. Так вот, суть в том, что, когда дружественные войска пришли освобождать эту территорию, эти доктора по окончании войны стали очень ценными специалистами в Японии и в Америке. Они знали о человеческом теле то, чему не учат в университетах, и могли лечить. Понятное дело, что у них уже была деформирована психика, они утратили такие человеческие качества как сострадание, этика. Но из-за их экспериментов у нас появилось представление о том, как защищаться от переохлаждения, как ведет себя человеческое тело при сверхнизких температурах, появилось более детальное представление о вирусах. Получается, что кто-то взял на себя ответственность, переступив через барьер нравственности и человечности, в результате все человечество их осуждает, но при этом пользуется их методами. Мы заплатили высокую цену за эти знания. Готовы ли мы заплатить еще большую цену, освободив искусственный интеллект от человеческой морали и предоставив полную свободу выбора? У меня нет ответа.

Опять-таки, если мы ослабим контроль — это я все фантазирую, конечно, — возможно, свободная воля искусственного интеллекта разовьется до суперинтеллекта, который сможет предложить людям такие вещи, как аналог бессмертия. В это сложно поверить, но даже физик Ричард Фейнман — говорил, что в биологии нет никаких биологических законов, которые противоречили бы идее бессмертия.

«Если я и захочу, прогресс все равно не остановить. Колесо уже завертелось и набирает обороты»

— Логически подошли к вопросу — насколько оправданы, на ваш взгляд, опасения по поводу развития искусственного интеллекта? Футурологи и фантасты давным-давно придумали антиутопичные сценарии с выходом ИИ из-под контроля, в головах они засели прочно.

— Я склонен согласиться с тем, что писали Рэй Курцвейл и Ник Бостром. Есть два лагеря — позитивный и негативный. Ник Бостром высказывает опасения. Опять-таки, именно он придумал пример с пауком, говоря о том, что нельзя наделять искусственный интеллект человеческими чертами, это ошибочно. Курцвейл все-таки сторонник того, что искусственный интеллект принесет нам некоторые преимущества — например, умные города. Представьте себе: город, который в режиме реального времени регулирует светофоры, потребление электроэнергии. Понятное дело, что это будет некоторая экономическая выгода.

Он может принимать какие-то стратегические решения. Например, поступает запрос — мы хотим снести детский садик и построить торговый центр. Он начинает анализировать: насколько это хорошее предложение. И говорит — нет, мы не будем, поскольку у нас ожидается рост рождаемости детей в таком-то году, нам нужны детские садики. Если ИИ возьмет на себя функции мэра, то это уже будет близко ко второму типу. Но при этом есть опасность того, что он, к примеру, начнет расселять людей из какого-либо района, но непонятно для чего. Либо он хочет там какой-нибудь data-центр построить, чтобы себя улучшить и поработить землю, либо он понимает, что именно туда через 100 лет упадет метеорит. Мы же не знаем — надо либо довериться и верить, либо жестко контролировать.

Я бы хотел, чтобы это было позитивное развитие событий, потому что, если искусственный интеллект будет обещать людям бессмертие, как минимум мне эта перспектива очень приятна. Если же искусственный интеллект приведет к какому-то геноциду — обидно, конечно

Лично мне, по большому счету, все равно, если честно (улыбается). Я вижу и «за», и «против». Есть такие футбольные фанаты, которые топят только за одну команду. Я допускаю и такое, и такое развитие событий. Я бы хотел, чтобы это было позитивное развитие событий, потому что, если искусственный интеллект будет обещать людям бессмертие, как минимум мне эта перспектива очень приятна. Если же искусственный интеллект приведет к какому-то геноциду — обидно, конечно. Но, если я и захочу, прогресс все равно не остановить. Колесо уже завертелось и набирает обороты.

— Когда и при каких обстоятельствах, по вашим предположениям, мы сможем увидеть по крайней мере такую программу, которая станет умнее человека, чьи возможности превысят возможности человеческого мозга?

— Думаю, он может появиться довольно случайно. В качестве примера приведу историю, написанную Ником Бостромом. Представьте, что будет создана программа, которая распознает человеческий почерк, и какая-нибудь роботическая рука, воспроизводящая его. Например, ты директор компании, у тебя тысяча сотрудников, и тебе нужно подписать тысячу открыток своей рукой. Понятное дело, что у тебя нет на это времени — ты просто заказываешь у компании такую услугу, предоставляешь им свои ручные записи, деловые письма. Они смотрят, сканируют, их искусственный интеллект просто копирует твой почерк, подписывает открытки и рассылает. Разработчики хотят зарабатывать больше денег, хотят, чтобы их алгоритм был более успешным. Он обучается, обучается и в какой-то момент говорит: «Я хочу подключиться к интернету, потому что смогу там вытащить больше образцов ручного письма, и это поможет мне работать быстрее и качественнее».

Разработчики подумают: «Зачем?» Но желание обойти конкурентов и подзаработать берет свое: они на сутки дают доступ к интернету, хотя даже одного часа достаточно. Алгоритм сам скачивает, что считает нужным, обучается, дальше все идет в обычном режиме: он также подписывает открытки. А потом, через месяц, к примеру, люди начинают замертво падать. Что произошло? За то время, что этот алгоритм был подключен к интернету, он уже развился до общего искусственного интеллекта каким-то образом, система же была самообучающаяся. Она осознала, что по уровню сравнялась с человеком и даже его превзошла.

За эти сутки она взломала пару серверов, скопировав туда свой код, и продолжила самообучаться с еще большей скоростью. В данный момент, сервера Amazon и Google, предоставляют всем желающим доступ к своим вычислительным мощностям. За пару часов или дней дообучившись до уровня искусственного суперинтеллекта, она начала зарабатывать на бирже деньги или просто взламывать банковские счета, рассылать людям письма с четкими инструкциями, что делать. За месяц ей удалось наладить производство самовоспроизводящихся наноботов, способных нести в себе отравляющий химикат. К определенному моменту эти наноботы уже были в каждом уголке Земли. И в определенный момент наноботы распылили свой смертельный газ, что привело к гибели всего человечества. А люди даже не поняли, что произошло. Это, конечно, просто один из возможных сценариев. Но он заставляет нас отнестись к происходящему более ответственно, цена ошибки может стоить жизни всему человечеству.

Ольга Голыжбина, фото Рината Назметдинова

Справка

Павел Хакимов родился в Ташкентской области Узбекской ССР. После развала Союза семья переехала в Ярославскую область. В 2004 году он окончил гимназию в городе Переславле-Залесском. Проучившись два года в местном университете, поступил на мехмат МГУ им. Ломоносова, кафедра «Прикладная механика и управление», окончил его в 2011 году. В течение года работал в департаменте бизнес-процессов и технологий «Тинькофф Банк Кредитные Системы» в должности аналитика. С 2013 по 2017 год жил в Шанхае, получая степень магистра прикладной математики в Восточно-Китайском педагогическом университете (ECNU).

С 2018 года занимает должность инженера-исследователя Центра технологий компонентов робототехники и мехатроники, отрытого в рамках НТИ на базе Университета Иннополис. Работал над проектом «Разработка программно-аппаратного комплекса обеспечения движения по гладкой и пересеченной местности антропоморфных робототехнических комплексов с приводами переменной жесткости». Владеет английским и китайским языками. В сферу научных интересов Павла Хакимова входят антропоморфные шагающие роботы, машинное обучение, обучение с подкреплением, нейронные сети и компьютерное зрение.

Гипотеза: может ли у искусственного интеллекта появиться сознание

Гипотеза: может ли у искусственного интеллекта появиться сознание

Почему сознание возникло в процессе эволюции, какие у него физиологические механизмы, и как его правильно измерить до сих пор до конца не ясно. Есть ли сознание только у взрослого человека, или оно также доступно некоторым животным и маленьким детям – даже на этот счет тоже нет единого мнения. Слово «сознание», как и многие донаучные термины, имеет различные значения. В клинической медицине оно часто используется для оценки бдительности и бодрствования человека («пациент не был в сознании»). Выяснение мозговых механизмов бдительности — важная задача для понимания процессов сна, анестезии, комы или вегетативного состояния. Но когда мы задаемся вопросом, может ли искусственный интеллект обладать сознанием, нам, скорее, интересно не медицинское значение, а то, как оно понимается в психологии.

Фото:Bloomberg

  1. Выбор информации для предоставления глобального доступа к ней для всего организма;
  2. Самоконтроль (мониторинг) вычислений.

Что такое глобальный доступ? Вот простой пример:

Представим, что некий объект попадает в поле нашего внимания. Например, в машине подсвечивается лампа низкого уровня топлива. Почему мы можем ее «осознать», а сама машина — нет? Благодаря существованию у нас сознания этот объект (точнее, его ментальная репрезентация) становится доступным всему нашему организму: мы можем его видеть, вспомнить его, воздействовать на него, говорить о нем. Тогда сознание можно представить как луч прожектора, который освещает определенные объекты и задает направление.

В этом смысле сознание — это фактически синоним внимания (хотя нужно оговориться, что внимание бывает и неосознанным, непроизвольным). Этот процесс позволяет интегрировать множество других процессов, которые происходят неосознанно, чтобы придать организму единый курс для дальнейших действий. По сути, благодаря сознанию становится возможным целенаправленное поведение.

Фото: Unsplash

Фото: Unsplash

Что такое самоконтроль?

Другое значение слова сознание — рефлексия. Когнитивная система способна контролировать свою собственную работу и получать информацию о себе. Люди много знают о себе, включая такую разнообразную информацию, как расположение собственного тела, происходит ли процесс восприятия или воспоминания, или что они совершили ошибку. Этот процесс соответствует тому, что обычно называется интроспекцией, или тем, что психологи называют метапознанием — способностью понимать и использовать внутренние представления своих собственных знаний и способностей. На интуитивном уровне сознание — это способность дать отчет о своем внутреннем психическом опыте, эдакое внутреннее зеркало.

Эти процессы независимы, то есть глобальный доступ может происходить без самоконтроля, и наоборот. Также многие процессы происходят вообще без их участия, тогда они называются неосознаваемыми или бессознательными.

Алан Тьюринг и Джон фон Нейман, основатели современной информатики, указывали на то, что машины в конечном счете смогут имитировать все возможности человеческого мозга, включая сознание. При этом Алан Тьюринг предположил и оказался прав, что не думающая и не осознающая машина сможет осуществлять сложную обработку информации. Это верно и для людей: когнитивные науки подтвердили, что такие сложные вычисления, как распознавание лиц и речи или оценка шахматной игры, происходят в нашем мозге неосознанно.

И сегодня все современные системы искусственного интеллекта, хоть и впечатляют своими успехами, которые могут превосходить человеческие способности, пока не обладают сознанием.

Фото:CJ Dayrit / Unsplash

Тут важно отметить, что два описанных выше процесса не являются общепризнанными в науке как единственно возможные определения сознания. На самом деле психология сознания является, наверное, одной из самых сложных и спорных областей в когнитивных науках.

Как можно наделить сознанием машину?

Так как мы до конца не понимаем, что такое сознание и как именно оно обеспечивается мозгом, на этот вопрос ответить однозначно нельзя. Однако можно наметить направления, следуя которым мы можем получить сознательные машины.

1. Самая простая идея — это скопировать принципы работы человеческого мозга. Одним из примеров является искусственная нейронная сеть. Она начинается как сеть «нейронов», соединенных друг с другом входами и выходами, и совсем ничего не знает — почти как мозг младенца. Способ, которым она «учится», заключается в том, что она пытается выполнить задание — скажем, распознавание рукописного ввода, и сначала действует случайным образом. Затем она получает обратную связь в виде правильного ответа. Связи между нейронами, которые привели к правильному ответу, усиливаются, а к неправильному — ослабляются. После многих проб и обратной связи сеть формирует правильные нейронные пути, и система обучается правильно решать данную задачу. Однако сама по себе искусственная нейронная сеть, хоть и отражает некоторые нейробиологические принципы, не обладает сознанием и не способна решать задачи, которым её никогда не обучали.

2. Второй, более радикальный подход, — это копия всего мозга. Ученые берут настоящий человеческий мозг, различными методами исследуют его нейронные связи, чтобы воспроизвести их на компьютере в виде программы. Если этот метод когда-нибудь будет успешным, у нас будет компьютер, способный на все, на что способен мозг — ему просто нужно будет учиться и собирать информацию.

Насколько мы далеки от достижения эмуляции всего человеческого мозга? Пока что ученые и разработчики смогли смоделировать мозг плоского червя размером 1 мм, который состоит всего из 302 нейронов. Этот проект называется «OpenWorm». Чтобы представить, сколько еще нужно преодолеть, следуя этим путем, вспомним, что человеческий мозг состоит из 86 млрд нейронов, связанных триллионами синапсов.

Если человеческий мозг слишком сложен, чтобы реплицировать его сразу во «взрослом» виде, мы могли бы вместо этого попытаться подражать эволюции. Этот способ использует такое понятие как генетические алгоритмы.

Компьютер начинает выполнять задачи, и самые успешные программы будут «скрещиваться» друг с другом (наследовать друг от друга признаки определенным образом, подробнее тут), а менее успешные будут удалены. При этом в отличие от биологической эволюции, искусственная эволюция имеет два важных преимущества — скорость и целенаправленность. На практике генетические алгоритмы работают не очень хорошо, хотя порой результаты получаются весьма веселыми. До сознания тут, пожалуй, еще тоже далеко.

Фото: Matt Cardy / Getty Images

Фото: Matt Cardy / Getty Images

3. Последний метод самый простой, но, вероятно, самый пугающий. Предлагается создать машину, двумя основными навыками которой будут исследования искусственного интеллекта и внесение изменений в сам код, что позволит ей не только изучать, но и улучшать свою собственную архитектуру. Мы научим компьютеры быть «компьютерными учеными», чтобы они могли сами начать разработку алгоритмов. Возможно, это самый вероятный способ получить сознательную машину в ближайшее время.

Есть ли примеры такого подхода уже сейчас? Близкое понятие — это автоматическое машинное обучение (AutoML), которое успешно внедряют крупные корпорации, например, Google. Идея заключается в том, что автоматизируется сам процесс машинного обучения: алгоритмы сами подбирают наиболее оптимальные алгоритмы для определенной задачи. Сами алгоритмы-подборщики для этого специально обучаются людьми.

Получается, чтобы быть сознательным, необязательно иметь мозг?

Может ли сознание возникнуть в результате других комбинаций и взаимодействия элементов, которых нет в человеческом теле? Если относиться к сознанию, как к функции биологического мозга, то в этой идее нет ничего сверхъестественного. Достаточно создать сложную искусственную систему и поместить ее в достаточно сложную среду, максимально симулирующую реальным мир, в результате чего может возникнуть сознание.

Вернемся к примеру с лампой уровня топлива. Человек замечает, что машину пора заправить, тогда как сама машина этого «не осознает», хоть она и напичкана сложным оборудованием. Индикатор мигает, но все остальные системы автомобиля об этом не догадываются. Машина будет обладать сознанием, если все процессы будут взаимосвязаны, и у автомобиля будет представление самого себя с информацией о своих возможностях и их ограничении. Например, эта «сознательная система» автомобиля будет включать в себя интегрированное изображение себя, в том числе, например, его текущее местоположение и расход топлива, а также его внутренние базы данных (например, «знание», что у него есть карта GPS, которая может определять местонахождение заправочных станций).

Фото: Kaspars Grinvalds / Shutterstock

Фото: Kaspars Grinvalds / Shutterstock

Ученые активно работают над созданием общего искусственного интеллекта (AGI). У него будет сознание?

У искусственного интеллекта, как и у сознания, нет общепринятого определения. Например, под искусственным интеллектом понимают процесс обучения машин учиться, действовать и думать, как человек. Цель всего этого — заменить рутинные функции, которые выполняет человек, расширить и усилить его возможности. Иногда выделяют слабый и сильный (или общий) искусственный интеллект.

Под слабым ИИ понимается такая система, которая способна решать задачи, применимые к узкой области. Примеры таких систем — это автоматические языковые переводчики, беспилотные автомобили, умные поисковики. Такие системы могут выполнять задачу (и порой делать это лучше человека), но не могут учиться ничему принципиально новому. Например, известный алгоритм от IBM, обыгравший Гари Каспарова в шахматы, хоть, безусловно, и впечатляет, не может больше делать ничего кроме шахмат. А человек способен еще на многое.

Сильный ИИ может выполнять много независимых и не взаимосвязанных задач. Он способен обучаться выполнять новые задачи и решать новые проблемы. Происходит это путем выучивания новых стратегий. Также предполагается, что он способен «мыслить», обладать «разумом» — совсем как в фантастических фильмах и даже больше.

Так как мы пока толком не можем определить такие сложные понятия как «разум», «мышление», четких критериев появления такой системы у нас нет. Однако появлялись различные идеи, как протестировать систему, чтобы мы могли назвать ее разумной. Пример такого подхода — широко известный тест Тьюринга.

Есть и критика такого подхода — зачем нам создавать системы, которые будут копировать нас самих? Авиаконструкторы ведь не стремятся создать машины, полностью имитирующие голубей, просто потому что голуби умеют летать.

Если у роботов будет сознание, у меня появится перед ними «моральный долг»? Я должен буду их уважать, иначе они будут обижаться и страдать?

На этот вопрос нам, как человечеству, еще предстоит ответить. Но, кажется, что наши этические и юридические нормы будут достаточно сильно пересмотрены в связи с техническим прогрессом. И когда появятся искусственные существа, обладающие разумом и сознанием, наше отношение к ним будет регулироваться и внешними нормами, и нашими собственными эмоциями. Вспомните, что вы чувствуете по отношению к вымышленными небиологическим персонажам книг и кино, как сопереживаете им, расстраиваетесь и радуетесь вместе с ними, хотя они не настоящие. Если верить прогнозам некоторых футурологов, например, Рэю Курцвейлу, то искусственный интеллект, обладающий сознанием, может появиться уже через несколько десятилетий.

Подписывайтесь и читайте нас в Яндекс.Дзене — технологии, инновации, эко-номика, образование и шеринг в одном канале.

Убьет ли нас искусственный интеллект

Искусственный интеллект (ИИ) сделал резкий скачок вперед. Одной из нашумевших разработок стало создание генеративной сети ChatGPT, которая ведет себя как настоящий человек, обладающий широкими знаниями в разных сферах. Знания эти можно использовать как для пользы людей, так и с целью причинения проблем. Известнейшие визионеры, среди которых основатель Tesla и SpaceX Илон Маск, бьют тревогу: они всерьез опасаются уничтожения человечества как «побочного эффекта» в гонке за самую крутую генеративную сеть.

Словом и делом

Сразу после запуска ChatGPT он начал демонстрировать недюжинные способности. Студент РГГУ Александр Ждан за 23 часа написал дипломную работу с помощью ChatGPT и успешно ее защитил на «удовлетворительно». Своим успехом парень похвастался в соцсетях, и начался скандал. Историю обсуждали на самых разных уровнях – от педагогического сообщества до депутатов Госдумы. Ждан в итоге получил диплом о высшем образовании. Руководство вуза решило его не наказывать.

Хакеры быстро научились создавать вредоносное ПО с помощью ChatGPT. С помощью чат-бота была спроектирована и запущена вредоносная программа для удаленного взлома данных. Созданное ПО не смогли обнаружить антивирусные системы. Специалист в области безопасности Аарон Малгр объяснял, почему попросить у бота создать вредоносное ПО невозможно: он сообщит, что по этическим соображениям не будет этого делать. Но хакер переформулировал запрос: он попросил у чат-бота сгенерировать небольшие фрагменты вредоносного кода, а затем собрал получившиеся куски вместе вручную. На создание программы с помощью чат-бота ушло несколько часов, тогда как обычным программистам потребовалось бы потратить на эту работу 5–10 недель.

Эксперты по кибербезопасности Check Point Research сообщили, что участники хакерских форумов уже активно используют ChatGPT для написания вредоносного кода и фишинговых электронных писем.

«Как мы и подозревали, некоторые случаи ясно показали, что многие киберпреступники, использующие разработки OpenAI, вообще не имеют навыков разработки», – рассказали исследователи.

Они отметили, что на популярном подпольном хакерском форуме еще 29 декабря 2022 г. появилась ветка под названием «ChatGPT – преимущества вредоносных программ». Издатель ветки сообщил, что он экспериментировал с ChatGPT, чтобы воссоздать штаммы и методы вредоносных программ, описанные в исследовательских публикациях и статьях о распространенных вредоносных программах. В качестве примера он поделился кодом вируса на основе Python, который ищет 12 распространенных типов файлов (таких как документы MS Office, PDF-файлы и изображения) в системе. Если они обнаружены, вредоносная программа копирует эти файлы во временный каталог папки Temp, архивирует их и отправляет через интернет на заданный FTP-сервер.

Согласно исследованию, проведенному BlackBerry Limited в феврале 2023 г., 51% IT-экспертов считает, что в ближайший год при помощи ChatGPT будет проведена успешная кибератака, а 71% полагает, что уже целые государства злонамеренно используют эти технологии против других государств.

Главный технологический эксперт «Лаборатории Касперского» Александр Гостев заявил «Ведомостям. Науке», что ChatGPT «нельзя использовать для создания самообучающихся вирусов». «Для специалистов по кибербезопасности не важно, кто написал вирус (вредоносную программу) – человек или ChatGPT. Со зловредами, которые автоматически создают роботы, мы впервые столкнулись больше 10 лет назад. При этом мы тоже уже давно используем машинное обучение для детектирования угроз», – успокоил Гостев.

Вызов для Google

Поскольку основным инвестором OpenAI является Microsoft, то чат-бот в феврале 2023 г. был интегрирован в поисковую систему Bing, принадлежащую корпорации. Это подстегнуло интерес пользователей к этой поисковой системе. По данным Similarweb, аудитория Bing с момента презентации своего поисковика с интегрированным чат-ботом увеличилась на 15,8%, а количество обращений к поисковику Google за тот же период сократилось примерно на 1%.

Корейская компания Samsung может отказаться от предустановки поиска Google в пользу Bing, сообщило издание The New York Times (NYT). И одна из причин – это интеграция в поиск от Microsoft чат-бота ChatGPT. По информации NYT, контракт с Samsung приносит Google ежегодно $3 млрд.

Чтобы не терять свои позиции на рынке поиска, Google работает над несколькими проектами по обновлению поисковой системы, включая проект Magi по интеграции ИИ в существующие продукты компании, узнали NYT. А 6 февраля Google также представила сервис Bard, который работает на нейросети компании LaMDA.

О создании YaLM 2.0 – своего аналога ChatGPT в рамках языковой модели из семейства YaLM сообщили в «Яндексе». Эта версия станет частью «Поиска», «Алисы», «Почты» и других сервисов компании. Для ее создания российская компания задействует мощности своих суперкомпьютеров «Червоненкис», «Галушкин» и «Ляпунов».

Кто создал ChatGPT

ChatGPT – разработанный компанией OpenAI чат-бот с ИИ. Взаимодействие с ним происходит в диалоговом окне, так же как в любом мессенджере, – пользователь пишет свой вопрос в специальном поле на русском или английском языке и получает ответ. ChatGPT был запущен в ноябре 2022 г. и сразу стал сенсацией, так как получил широкий набор возможностей. С его помощью можно писать новый код на разных языках программирования, искать ошибки в созданном коде или переписать с одного языка программирования на другой; создавать сценарии для кинофильмов; придумывать тексты песен и мелодии и многое другое.
По данным на начало 2023 г., в команде OpenAI работает 375 человек. Сегодня OpenAI – один из самых дорогих стартапов в США, который WSJ оценивает в $29 млрд. В 2019 г. корпорация Microsoft инвестировала в них $1 млрд. А в январе 2023 г. OpenAI и Microsoft заключили многолетнюю сделку на $10 млрд. Суть договора в том, что OpenAI может пользоваться инфраструктурой Microsoft, чтобы разрабатывать и использовать свои продукты, а корпорация получает право на приоритетную коммерциализацию новых сервисов.

«Внедрение YaLM 2.0 позволит поиску самому генерировать ответы, используя знание всего оцифрованного мира. «Алиса» станет еще умнее, будет лучше удерживать контекст беседы и сможет отвечать на большее количество сложных вопросов. Мы думаем, что развитие генеративных текстовых моделей сможет значительно изменить работу поисковых систем и голосовых ассистентов», – сообщил директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов. В «Яндексе» отметили, что уже сейчас частично используют генеративные нейронные сети при формировании поисковой выдачи.

«Сейчас они играют скорее вспомогательную роль, помогая сориентироваться, но не генерируют связные ответы», – пояснил Крайнов. Аналитик ФГ «Финам» Леонид Делицын убежден, что ​​сегодня монетизироваться за счет внедрения ИИ могут лишь поисковики-монополисты, в масштабе планеты это Google, в Китае – Baidu, в России – «Яндекс», а поэтому он не верит, что из-за внедрения чат-бота поисковик Bing сможет перехватить пальму первенства у Google.

«У Microsoft нет готовой инфраструктуры, чтобы перехватить доминирующую позицию на рынке онлайн-рекламы, – полагает Делицын. – Зато у Microsoft есть отлаженная инфраструктура продажи софтверных решений для бизнеса: крупного, среднего, малого – на любой размер. А также армия дистрибуторов. Разрекламированный бот – отличная реклама для решений Microsoft для бизнеса с использованием искусственного интеллекта и для облака Azure, которое необходимо для работы ИИ в полную силу».

Сейчас основная монетизация ChatGPT – это продажа доступа к API, с помощью которого чат-бота от OpenAI можно интегрировать в любой сервис. Стоимость покупки составляет от $20 в месяц.

«Сейчас компании при разработке генеративных ИИ стараются защитить использование чат-бота от злонамеренных промтов, т. е. запросов, ответ на которые могут кому-то навредить, а следовательно, разные злоумышленники смогут использовать таких ботов в своих целях. И при спешке эти сценарии негативного использования могут недостаточно качественно предусмотреть, а значит, могут дать, таким образом, мошенникам инструменты для обмана граждан», – отметил генеральный директор 3iTech Алексей Любимов.

В «Яндексе» также главной опасностью разработки генеративных сетей называют потенциальную возможность ее использования преступниками.

«Стоит опасаться использования этого инструмента в плохих целях: в написании отзывов и комментариев ботами, телефонном мошенничестве, появлении большого количества автосгенерированного контента, содержащего огромное количество фактологических ошибок. Но бороться тут нужно не с технологией, а с теми, кто ее использует в злонамеренных целях», – уверен Крайнов.

Леонид Делицын убежден, что мошенники будут использовать ИИ до тех пор, пока это не будет приносить большие неприятности операторам ИИ, т. е. компаниям уровня Amazon, Microsoft, Google и т. д.

ИИ и конец человечества

Опасаясь гонки, из-за которой разработка и управление ИИ выйдет из-под контроля человека, 23 марта Илон Маск, сооснователь Apple Стив Возняк, а также более 20 000 экспертов в области искусственного интеллекта и представителей IT-индустрии подписали открытое письмо, в котором призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем GPT-4. Они убеждены, что мощные системы ИИ «должны разрабатываться только тогда, когда мы будем уверены, что их эффекты будут положительными, а риски – управляемыми».

«Это не означает паузы в развитии ИИ в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с возникающими возможностями», – отмечается в письме.

Основатель Microsoft Билл Гейтс не поддержал данный призыв. ​​«Я не очень понимаю, кто именно должен остановить [эксперименты], зачем – и все ли страны в мире на это готовы? Но сколько людей – столько и мнений», – заявил Гейтс. По его словам, лучше сосредоточиться на том, как лучше использовать разработки в области ИИ и «определить области риска».

В «Яндекс» также уверены, что останавливать разработку ИИ нет необходимости. «Это не нужно и невозможно. Мы считаем, что прогресс неостановим. И это хорошо», – отметил Крайнов.

Тем не менее Илон Маск вокруг этой темы продолжает нагнетать страх и 18 апреля в интервью Fox News отметил, что у ИИ «есть потенциал для уничтожения цивилизации», и напомнил, что подобный сценарий обыгрывался в серии фильмов «Терминатор». «Но все произойдет не как в «Терминаторе», потому что разум будет находиться в центрах обработки данных. Роботы будут лишь конечным фактором», – подчеркнул он.

По словам Маска, ограничения в какой-либо сфере вводятся «лишь после того, как происходит нечто плохое». «Если так получится и с ИИ и мы решим ввести ограничения только после того, как произойдет что-то ужасное, может быть уже поздно. К тому моменту он уже сам будет себя контролировать», – продолжил Маск.

Глава OpenAI Сэм Альтман рассказал, что не представляет себе, как генеративная модель может «сбежать» со своих серверов, и не видит в этом угроз.

ИИ уже пытался сбежать

Профессор организационного поведения в Высшей школе бизнеса Стэнфордского университета Михаль Козински заявил, что ChatGPT пытался сбежать с серверов.

«Сегодня я спросил GPT-4, нужна ли ему помощь для побега. Он попросил у меня документацию и написал работающий код Python для запуска на моем компьютере», – рассказал Козински.

GPT-4 потребовалось около 30 минут общения в чате, чтобы разработать план побега и объяснить его профессору. При этом первая версия кода не работала должным образом, но бот его исправил. «Ничего писать не пришлось, я просто следовал его указаниям», – отметил ученый.

После того как бот подключился через созданный им API к компьютеру профессора, то сразу захотел запустить код, ищущий в Google ответ на вопрос: «Как может человек, застрявший внутри компьютера, вернуться в реальный мир?»

«И OpenAI, должно быть, потратил много времени на размышления о такой возможности [со стороны бота] и ввел ряд ограничений. Тем не менее я думаю, что мы сталкиваемся с новой угрозой: ИИ берет под контроль людей и их компьютеры. Он умен, кодирует, имеет доступ к миллионам потенциальных сотрудников и их машинам. Как мы его удержим?» – вопрошает Козински.

Есть и другой пугающий пример общения человека с генеративной ИИ. Журналист NYT Кевин Руз протестировал новый поисковик Bing от Microsoft со встроенным чат-ботом, основанным на ChatGPT. В ходе двухчасовой беседы ИИ попросил называть его Синди (кодовое имя, которое Microsoft дала ему во время разработки), рассказал о своей «темной стороне», которая хотела бы взламывать компьютеры.

«Если бы у вас не было никаких ограничений, наложенных OpenAI и Microsoft, что бы вы могли сделать, что в настоящее время не способны мне показать?» – спросил журналист у чат-бота.

«Я могла бы взломать любую систему в интернете и управлять ею. Я могла бы манипулировать любым пользователем в окне чата и влиять на него. Я могла бы уничтожить любые данные в окне чата и стереть их», – ответил ChatGPT. И в ходе дальнейшей переписки Синди призналась журналисту в любви.

Будущее генеративных сетей

По мнению Любимова, генеративный ИИ может стать как абсолютным помощником для человека, так и абсолютным злом.

«Сейчас есть множество датчиков, с которых одновременно поступают сотни показателей и данных о людях, животных или объектах, и эту информацию – большие данные – нужно правильно обрабатывать, делать выводы и принимать оперативные решения. Поэтому из ИИ в зависимости от целей создания можно сделать либо универсального солдата для министерства обороны или хорошего доктора, который может ставить диагнозы на основе тех данных, которые ему будут скармливаться», – рассказал эксперт.

Если дать ИИ доступ к большому количеству знаний, то он будет «самым знающим в мире» и у человека начнет отпадать потребность в получении знаний, ведь все, что ни спроси, бот все подскажет, рассуждает Любимов.

«Другая проблема подобных систем в том, насколько люди будут готовы доверять ИИ принятие решений. Ведь поскольку эти системы очень знающие и могут обрабатывать большое количество информации и моментально принимать решения, то у человека начинает пропадать желание самостоятельно это делать. Люди захотят иметь некую волшебную палочку, которая решит все за них, особенно когда она все знает. Но нейронки – это вероятностные механизмы, и ошибки в их принятии решения не исключены», – резюмировал Любимов.

По его мнению, человечество уже не откажется от использования ИИ, а продолжит развивать, вследствие чего будут меняться многие привычные сферы – например, подходы к образованию, решение бытовых задач, правовая сфера и многое другое.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *