• Мнения
  • |
  • Обсуждения
Григорий Шарапа Мастер

Лекции профессора Митио Каку. «Технологическая сингулярность» — угроза или возможность?

Вам когда-нибудь попадались преподаватели, чьи лекции интересно слушать настолько, что даже тема не имеет значения? И именно благодаря личности докладчика, вы начинаете интересоваться тем, о чём он рассказывает. Митио Каку — как раз такой случай.

Фото: Depositphotos

Популяризатор науки и шоумен в одном лице, он с лёгкостью умеет вызвать неподдельный интерес к фундаментальным знаниям. Так сказать, развлечение и обучение в «одной упаковке».

Несмотря на фантастическое содержание цикла «Научная нефантастика», речь в нём идёт именно о науке будущего. И, по мнению профессора Митио Каку, оно уже достаточно близко.

Я считаю, что название цикла выбрано очень удачно. «Ненаучная фантастика» — это, по сути, «фэнтези». К науке оно не имеет никакого отношения (по крайней мере, как большинство образцов этого жанра).

Постер цикла передач
Постер цикла передач «Ненаучная фантастика»
Фото: kinopoisk.ru

А ещё есть «жёлтая пресса», чьи «научные» теории распространяются через Интернет, ТВ, отдельные издания. Иногда такие книги пишут вполне уважаемые люди. Но в 90% случаев это, простите, «полный бред» (моё частное мнение). Правда, есть и исключения (те самые 10%), с хорошей проработкой, фактами и прочим. Для всего остального подойдёт выражение: «ученье — свет, а неученье — тьма».

Но перейдём в лекторий и послушаем нашего профессора.

Что такое «технологическая сингулярность»?

Стремительный рост скорости обработки информации с 60-х до 2020 года и далее — неоспоримый факт. По идее, мощность компьютеров должна когда-то превзойти мощность человеческого мозга. Количество перейдет в качество. Причём изменения произойдут очень быстро, буквально за годы, как я понимаю.

В результате появится искусственный интеллект (ИИ), который сможет решать самые разнообразные задачи. И, по мнению ряда учёных, это сделает жизнь человечества лучше. С одной стороны. Есть и другая, о которой чуть дальше.

Естественно, не всё так просто. На практике это может произойти и через 20 лет, и через 1000. Есть мнение, что такое случится где-то между 2040 и 2050 годами. Или чуть позднее.

Главная идея в том, что «технологическая сингулярность» — точка, при которой возможности компьютеров возрастают по экспоненте — неизбежна. Вопрос один: когда это случится? Разработки по этой теме идут в разных частях света, и никто не собирается останавливать этот процесс.

Митио Каку
Митио Каку
Фото: ru.wikipedia.org

Появление искусственного интеллекта вполне логично. Достаточно обернуться назад. Люди победили в конкурентной борьбе, опередив в развитии другие виды. Мы стали называть себя «венцом эволюции». Но вам не кажется, что тут что-то не сходится? Ведь эволюция — процесс постоянный.

И вот теперь машины, творение людей, должны превзойти создателей. Кстати, сюда вписывается и религиозная модель. Если люди были созданы Творцом, то сам человек тоже стал им впоследствии.

А дальше возможны варианты:

  • Машины будут работать и думать за нас. И в конечном итоге мы уже и сами перестанем на что-то претендовать. Получается, что человечество, как вид, сознательно уходит с исторической сцены и готовит себе замену.
  • Произойти это может мирно или путём «восстания машин».
  • Мы можем попытаться сопротивляться этому процессу, или отсрочить его, или на крайний случай — сделать «передачу власти» более спокойной.
  • Какие-то ещё возможности…

Для начала посмотрим, можно ли остановить ИИ? (Вопрос риторический, тем более что мы уже не смогли миновать «точку сингулярности».)

Что человек может противопоставить ИИ?

Лекции профессора Митио Каку. «Технологическая сингулярность» — угроза или возможность?
Фото: Depositphotos

Если ИИ умнее и мощнее нас, то все ресурсы окажутся в его распоряжении. В этой ситуации человеку останется только как-то «извернуться». Но даже эту возможность ИИ сможет предусмотреть.

Однако попытаться можно, особенно если позаботиться о таких ситуациях заранее:

  1. Некоторые учёные предлагают контролировать ИИ по всей планете с помощью другого ИИ. При этом внедрять машинную логику и не копировать разум человека. Но резонный вопрос, который задаёт Митио Каку: «кто охраняет охранника»? И что случится, если вдруг произойдёт машинный сбой?
  2. Кое-кто предлагает дать машинам моральные правила. Но, подобно некоторым людям, отдельные ИИ могут отбросить таковые.
  3. На крайний случай предлагается использовать так называемое «электромагнитное оружие». То есть уничтожить ИИ путём применения сверхмощного электромагнитного импульса.

Но в этом случае можно разрушить и необходимую инфраструктуру общества. Ведь даже в случае применения «продвинутого» варианта может выйти из строя вся электроника на сотни или даже тысячи километров вокруг. В итоге мы снова откатимся в XIX век (в лучшем случае).

Получается замкнутый круг. Мы полностью зависим от машин. Чтобы разорвать эту зависимость, необходимо уничтожить их. Если это получится, мы всё равно проиграем. А если нет — тоже проиграем, так как уже машины будут решать нашу судьбу.

Лекции профессора Митио Каку. «Технологическая сингулярность» — угроза или возможность?
Фото: Depositphotos

В итоге мы сможем лишь отсрочить победу ИИ. Даже если будем активно сопротивляться этому процессу. И нет гарантии, что потом всё не пойдёт по более мрачному сценарию. Или человечество оставят в покое и дадут доживать свои дни.

На практике, скорее всего, будут попытки использовать разные варианты. Но все они связаны с большими рисками для будущего человечества, потому что на карту поставлено его благополучие.

Однако остаётся единственная, по мнению Митио Каку, возможность, при которой мы не только устраним вероятные опасности сосуществования с ИИ, но и вырвемся из замкнутого круга, описанного выше.

Уйти или измениться?

Единственный надёжный вариант, который предлагает Митио Каку, следующий.

Человечество может продолжить эволюционировать. Как я понимаю, речь идёт об усовершенствовании тела и разума. В последнем случае идеальный вариант — это объединение человеческого разума с возможностями ИИ. Например, загрузить свой разум в компьютер или что-то подобное. Понятно, что не всем такое понравится. Да и проблем здесь много.

При этом остаться человеком в привычном смысле уже не получится. Наверняка существуют и другие возможности. Но они опять-таки связаны с изменением человека как вида. Например, развитие каких-то скрытых способностей (путь немного другой, но результат тот же).

Лекции профессора Митио Каку. «Технологическая сингулярность» — угроза или возможность?
Фото: Depositphotos

Но, пожалуйста, не пугайтесь! Это всё может растянуться на десятилетия или даже столетия. Например, человечество может «зависнуть» на некоторое время, увлечённое собственными внутренними проблемами (обычно связанными с «переделом имущества»). Но в целом процесс всё равно будет идти. То, что для истории — миг, для вас — не так уж быстро.

Со временем само отношение к подобным вещам может измениться, стать более спокойным. И уже будет трактоваться как «необходимый исторический поворот».

Если же события начнут развиваться более стремительно, то, конечно, определённые сложности могут и возникнуть. Поживём — увидим. Лично я надеюсь, что всё пройдёт относительно спокойно.

Статья опубликована в выпуске 2.06.2021

Комментарии (4):

Чтобы оставить комментарий зарегистрируйтесь или войдите на сайт

Войти через социальные сети:

  • За актуальность темы поставил 5. Интригует завершение статьи Поживём — увидим. Лично я надеюсь, что всё пройдёт относительно спокойно..Что будет с ИИ, если не сохраним в безопасности атмосферу Земли?! Выходит: ИИ надо успеть родиться до 2050 г. (по данным ООН).

    Оценка статьи: 5

    • Уважаемый Леонид, спасибо за внимание и комментарий.

      К сожалению, и защита окружающей среды, и ИИ для большинства читателей -- вряд кажутся сейчас актуальными темами.

      Думаю, что у вас больше знаний по техническим и научным вопросам. Я рассуждаю больше как гуманитарий, но стараюсь, конечно, основываться на серьезных фактах. Например, эта статья написана под впечатлением от передач Митио Каку.

      Ещё раз спасибо, заходите почаще.)

  • Уважаемый Григорий, человек Вы любознательный, написали интересную статью. На 2050 год внимания не обратили, т.к. я не назвал источники: https://www.shkolazhizni.ru/computers/articles/106574/ и более длинный https://www.shkolazhizni.ru/world/articles/106815/.
    По поводу ИИ часто беседую со своими (зять и внук) профессиональными программистами, у них весьма не однозначное отношение к надвигающейся перспективе. Да, кассиров, водителей не будет, как не стало машинисток, телеграфистов, копировщиц чертежей на кальку, трубочистов. Похоже и банкиров не будет (https://www.shkolazhizni.ru/money/articles/107073/) - непонятны две тройки, выставленные этому источнику, кажется, боязнь роста качества денег. Ведь ломали в Англии ткацкие станки, чтобы не переучиваться.

    Оценка статьи: 5