Больше рецензий

sq

Эксперт

Abiit, excessit, evasit, erupit

16 июля 2022 г. 23:21

244

4.5 Экзистенциальная бесполезность человечества

Человечество не совсем бесполезно. В отдалённой перспективе оно сохранится, но изменится. Наши потомки когда-то отбросят биологическую сущность, я в этом уверен. А прочие белковые существа будут процветать на планете в приятной окружающей среде, свободной от мегатонн наших экскрементов.
(Вот если какой-нибудь не вполне нормальный президент решит напоследок сжечь всё к дьяволу в термоядерной топке, тогда да. Тогда человечество и впрямь окажется бесполезным, а то и вредным. Но это другой вопрос, книга не про политику.)

Завидую от всей души Мелани Митчелл. Ей достался совершенно выдающийся учитель и друг -- Дуглас (он же Даглас) Хофштадтер. Его книга ГЭБ много лет занимает самое почётное место на моей самой почётной книжной полке. Она повлияла на моё мировосприятие больше, чем любая другая книга -- научная, художественная, философская, религиозная, математическая, да какая угодно. А для Мелани Митчелл ГЭБ определила профессию на всю жизнь.
Бесспорно, Мелани Митчелл во многих отношениях далеко до Хофштадтера. Она рассказывает о современном состоянии дел в области искусственного интеллекта (в дальнейшем буду сокращать его до ИИ). Но рассказывает она увлекательно, почти в стиле своего учителя.
Мне это особенно интересно, поскольку от жизни я давно отстаю, а начинал, если кому интересно, как раз-таки с ИИ. Одна из первых тем, в которых я участвовал, была непосредственно из этой области.

Подробности
Задача состояла в автоматическом создании вычислительных схем.
Есть физический мир, и есть связи между его параметрами. Если нас интересуют значения некоторых параметров, программа должна указать пути их вычисления и требуемые для этого значения прочих параметров. Путей много таких, поэтому задача содержит множество ограничений, а для решения используются методы алгебры, теории графов и прочего.
Это в чистом виде задача из области ИИ.
Но было это давно. Нейронные сети существовали в зачаточном состоянии, об их обучении речи ещё не шло совсем. Мы строили систему на чисто символическом уровне. В древности это было обычным делом, стандартным подходом к решению нестандартных задач. Условные "все" работали примерно так же.
свернуть

Как выясняется, основные задачи для ИИ, сформулированные в Дартмуте в 1956 году, остаются актуальны и сегодня. Это
• обработка естественного языка,
• нейронные сети,
• машинное обучение,
• абстрактные концепции и рассуждения,
• творческие способности.
(Не отметили особым пунктом машинное зрение. Это казалось слишком простой задачей.)
Продвижение по некоторым направлениям с тех пор случилось. Имеются впечатляющие практические успехи, но ни одно направление не закрыто, везде требуется ещё много работы, а главное -- нужны мощные теоретические прорывы.
При этом действует ИИ абсолютно по-другому, не так, как мы привыкли -- и это нормально. Кто сказал, что наш разум -- в каком угодно смысле наилучший или единственно возможный?

На сегодняшний день лучшие системы ИИ больше похожи на "учёных идиотов". Кое-что они умеют делать со свехчеловеческой эффективностью. Если уж он играет в шахматы или в го, то играет лучше любого белкового чемпиона. Если переводит, то сразу с любого из сотни языков на любой другой, и делает это со скоростью, недостижимой ни для какого живого переводчика. Но за пределами своей компетенции программа представляет собой чистый и абсолютный ноль.
Людей с такими способностями предлагают звать савантами, но мне больше нравится устаревший термин -- учёный идиот.

Особенно плохо дела у ИИ обстоят с абстрактным мышлением и изобретением концепций.

Подробности

Ребёнок, умеющий говорить, успешно решает задачи Бонгарда и может объяснить, чем отличаются фигуры на картинках. Человек делает это даже тогда, когда соответствующая концепция не имеет наименования в языке. Он скажет что-нибудь типа: посмотри, тут у них у всех кружочки, а у тех же -- петельки.
Для машины это крайне сложная задача. Можно натренировать нейронную сеть, чтобы она отличала фигуры с картинок Бонгарда, но она ни за что не сможет объяснить нам или кому бы то ни было, почему фигуры всё-таки разные. Новую концепцию нейросеть не найдёт, будет использовать лишь те, которым её учили. Плюс, бросается в глаза, что ребёнку достаточно полудюжины примеров, в нейронной сети понадобятся тысячи.

Мелани Митчелл называет это барьером понимания. В некотором смысле барьер этот похож на таинственную границу бесконечности. (Из конечной величины за конечное число конечных операций мы не получим бесконечности.) Уверен, что граница понимания всё же не столь радикальна, но ИИ достигнет её не скоро.
В частности, автор приводит вопросы, которые убивают тест Тьюринга. Это тесты Винограда (Terry Winograd -- это человек):

Предложение 1: “Городские власти отказали протестующим в разрешении на проведение митинга, потому что они опасались беспорядков”.
Вопрос: Кто опасался беспорядков?
A. Городские власти
B. Протестующие

Предложение 2: “Городские власти отказали протестующим в разрешении на проведение митинга, потому что они призывали к беспорядкам”.
Вопрос: Кто призывал к беспорядкам?
A. Городские власти
B. Протестующие


Одно слово определяет ответ на вопрос, грамматически фразы идентичны...
За 5 минут можно придумать и задать пару дюжин таких вопросов. Если собеседник ошибается, шутит, пытается сменить тему или начинает юлить, он не понимает вопроса, а занимается текстовым процессингом, который в таких случаях не помогает. (Ну либо он дебил, тогда его интеллект не особенно интересен.)
свернуть

Перспективы создания "настоящего" общего ИИ сегодня кажутся более далёкими, чем считали эксперты 1956 года. (Я не беру в расчёт Рэя Курцвейла и других патологических оптимистов.)

С нетерпением жду, когда робот Лайвлиба сможет писать отзывы на уровне людей, которые у меня в друзьях. Ну или по крайней мере такие тексты, которые мне захочется читать. Практически уверен, что не доживу до этого момента. И практически уверен, что момент такой наступит.
На сегодняшний же день мне не хочется даже смотреть рекомендации робота Лайвлиба. Он абсолютно не понимает, что я в принципе могу читать. Более того, среди прочих он предлагает мне книги, которые я уже прочитал, -- и он об этом знает.
Тупой ты совсем, робот Лайвлиба. (Прошу у тебя прощения. Знаю: ты читаешь сейчас мои слова -- работа у тебя такая.)

Ну и напоследок пара цитат разной степени оптимистичности из книги Мелани Митчелл.



Пока ИИ не может определить, что означает «он» в предложении, сложно поверить, что он захватит мир”
(c) Орен Этциони, директор Института Аллена

люди боятся, что компьютеры станут слишком умными и захватят мир, но настоящая проблема в том, что они слишком глупы и уже захватили мир
(c) Педро Домингос, исследователь ИИ

Теория и практика неумолимо карабкаются вперёд и вверх, так что книга, несомненно, скоро устареет. Но сегодня она прекрасна -- в полном смысле этого слова.
Я читал её медленно-медленно, постоянно отвлекаясь на статьи, которые упоминаются в примечаниях... Жаль, что она всё-таки кончилась :)

Комментарии


В прошлом году игрался с Балбобой - нейросетью от Яндекса, генерирующей тексты (сейчас отключена). Там был принцип, вставляешь кусочек текста, а нейросеть сама дописывает в той же стилистике. Я вставлял кусочек рецензии, и сеть дописывала. Да, это было то, что в копирайтинге называют "водой", но стиль и правда выдерживала, и по уровню сложности текста, грамматики давала фору многим пользователям Лайвлиба.


Да, пишут, что Балабоба временно не работает. Видимо, в отпуск уехала :)