(Альтернативы символьному ИИ.)
Символьный ИИ.
Пункт 5. Альтернативы символьному ИИ: интеллектуальная робототехника, эволюционные алгоритмы, перцептрон.
- 26.04.26 г.
- 9772225665000 26013
1. Эпоха доминирования символов.
В 1960–1980-е годы господствующим подходом в искусственном интеллекте (ИИ) был символьный искусственный интеллект. Исследователи были убеждены: интеллект – это манипуляция символами по правилам формальной логики. Экспертные системы, автоматическое доказательство теорем, логическое программирование – всё это развивалось в рамках одной парадигмы, опиравшейся на гипотезу физической символьной системы Ньюэлла и Саймона.
Однако уже в те годы существовали направления, которые предлагали иные ответы на вопрос «что такое интеллект?». Они не отрицали возможность ИИ, но сомневались, что логика и символы – единственный или даже главный путь к нему. Эти альтернативы не получили тогда широкого признания. Финансирование, научные журналы, конференции – всё было сосредоточено вокруг символьного подхода. Альтернативы существовали на обочине, их идеи считались маргинальными или преждевременными. Однако именно они определили лицо современного ИИ. Сегодня, когда мы говорим о нейросетях, глубоком обучении, эволюционных алгоритмах или обучении с подкреплением, мы имеем дело с прямыми наследниками тех самых «альтернатив», которые в 1960–1980-е годы были отодвинуты на задний план.
Рассмотрим три таких направления: интеллектуальную робототехнику (на примере Shakey the Robot), эволюционные алгоритмы (генетические алгоритмы) и ранние нейросети (перцептрон Фрэнка Розенблатта), – и какие идеи они предлагали, с какими трудностями столкнулись и почему их время пришло только спустя десятилетия.
2. Интеллектуальная робототехника: Shakey the Robot и проблема фрейма.
2.1. Уточнение термина.
Под «интеллектуальной робототехникой» мы понимаем не всю робототехнику в целом (проектирование механизмов, сенсоров, приводов), а именно ту её ветвь, которая занимается алгоритмами планирования, восприятия и принятия решений для автономных роботов. Классический пример – Shakey the Robot, который не столько «ходил», сколько планировал свои действия.
2.2. Первый мобильный робот, способный планировать.
Shakey the Robot был создан в Стэнфордском исследовательском институте (SRI) в период с 1968 по 1972 год. Это был первый мобильный робот, который мог не просто двигаться, но и планировать свои действия. Shakey передвигался по комнате, в которой находились несколько крупных объектов: кубы, платформы, пандусы. У него была телевизионная камера для зрения, датчики касания и радиосвязь с компьютером, который находился в другой комнате.
Shakey мог получать команды на естественном языке, например: «Передвинь большой куб на платформу». Затем он самостоятельно планировал последовательность действий: найти куб, подъехать к нему, толкнуть, объехать препятствие, проверить, достигнута ли цель.
Это был огромный шаг вперед. До Shakey роботы либо выполняли жестко заданную последовательность команд, либо управлялись человеком дистанционно. Shakey же был автономным в ограниченном смысле: он сам выбирал, что делать, исходя из текущей ситуации и поставленной цели.
2.3. Архитектура STRIPS: символьное планирование.
Сердцем Shakey была система планирования STRIPS (Stanford Research Institute Problem Solver). Это была чисто символьная система. Мир описывался в виде логических формул. Например:
– НаПолу(Куб) – куб стоит на полу.
– Перед(Робот, Куб) – робот находится перед кубом.
– Свободен(Путь) – путь свободен.
Действия описывались правилами, которые показывали, как меняется состояние мира:
– условия применения действия: что должно быть истинно, чтобы действие можно было выполнить,
– эффекты действия: что становится истинным после действия, а что перестает быть истинным.
STRIPS работал так: задавалась цель (например, НаПлатформе(Куб)). Система искала последовательность действий, которая вела от текущего состояния к цели.
STRIPS был прямым наследником идей символьного ИИ: интеллект = логический вывод над символами.
2.4. Проблема фрейма: что не изменилось?
Однако при попытке реализовать планирование в реальном физическом мире исследователи столкнулись с фундаментальной трудностью. Она получила название проблема фрейма (frame problem).
В логическом описании мира нужно указывать не только то, что меняется после действия, но и то, что остается неизменным. Например, после того как робот толкнул куб, изменилось положение куба. Но все остальные объекты в комнате (платформа, пандус, стены) остались на своих местах. Если этого не указать явно, система не будет знать, можно ли по-прежнему считать, что платформа стоит на полу.
Казалось бы, это очевидно. Но в формальной логике очевидное нужно прописывать. Для каждого действия нужно было перечислять все свойства мира, которые не изменились. А таких свойств – тысячи. И чем сложнее мир, тем их больше. Вскоре исследователи поняли, что полное перечисление «рамок» (frames) приводит к комбинаторному взрыву. Для простого действия «передвинуть куб» нужно было бы прописать, что стены не упали, пол не провалился, освещение не изменилось, цвет объектов остался прежним, и так далее.
Но проблема фрейма оказалась принципиальной. Она показала, что символьное планирование, основанное на явных правилах, плохо работает в динамической среде, где большинство свойств остаются неизменными и не нужно тратить ресурсы на их перечисление. Человек же решает эту проблему легко: мы по умолчанию считаем, что мир остается стабильным, если нет указаний на обратное. Но как научить этому машину в рамках формальной логики? Оказалось – очень сложно.
2.5. Значение Shakey для истории ИИ.
Shakey the Robot стал важным этапом, но по иронии судьбы он продемонстрировал не столько силу символьного подхода, сколько его границы. Интеллектуальная робототехника показала, что соединение символьного планирования с реальным физическим миром – задача чрезвычайно сложная. Проблема фрейма не была решена в рамках символьного ИИ. Она требовала иных подходов: вероятностного планирования, обучения на данных, использования не логических, а статистических методов.
Shakey часто называют «первым интеллектуальным роботом». Но он же стал предупреждением: мир не сводится к логическим формулам. Именно из этой проблемы вырос интерес к альтернативным подходам – например, к обучению с подкреплением.
3. Эволюционные алгоритмы: от биологии к вычислениям.
3.1. Истоки: биология как источник вдохновения.
Если символьный ИИ вдохновлялся логикой и математикой, а интеллектуальная робототехника – физикой и инженерией, то эволюционные алгоритмы обратились к биологии. Их основной вопрос: может ли интеллект возникнуть не из правил, а из процессов отбора и адаптации?
Истоки этого направления лежат в работах 1950–1960-х годов, но классической датой рождения считается 1975 год, когда Джон Холланд опубликовал книгу «Adaptation in Natural and Artificial Systems», где систематически описал генетические алгоритмы – важнейший класс эволюционных алгоритмов.
3.2. Принцип эволюционных алгоритмов: естественный отбор вместо логического вывода.
Эволюционные алгоритмы имитируют механизмы биологической эволюции:
– популяция – множество возможных решений задачи,
– гены – параметры, кодирующие решение (обычно в виде битовых строк),
– функция приспособленности (fitness function) – критерий, оценивающий, насколько хорошо решение справляется с задачей,
– отбор – лучшие решения имеют больше шансов дать потомство,
– кроссовер (скрещивание) – обмен частями генов между двумя решениями,
– мутация – случайное изменение отдельных генов.
Цикл повторяется: поколение за поколением популяция эволюционирует, и решения становятся всё лучше. При этом не требуется логического вывода, не нужно формулировать правила. Решение находится в процессе эволюционного поиска, а не выводится из аксиом.
3.3. Отличие от символьного подхода.
Для символьного ИИ знание – это набор явных правил, записанных экспертом. Для эволюционного алгоритма знание не задается, а возникает в процессе эволюции. Более того, решение может быть неописуемым в виде простых правил: пример – нейронная сеть, веса которой подобраны эволюцией. В этом – принципиальное различие. Символьный ИИ говорит: «Сначала формализуй знание, потом решай». Эволюционный подход говорит: «Задай критерий качества и запусти отбор – решение найдется само».
3.4. Почему эволюционные алгоритмы были на обочине?
В 1970–1980-е годы эволюционные алгоритмы считались интересным, но нишевым методом.
Причины такие:
а. Вычислительная сложность. Эволюция требует многократного вычисления функции приспособленности для многих особей на многих поколениях. Компьютеры того времени были слишком слабы для серьезных задач.
б. Отсутствие теоретического престижа. Символьный ИИ опирался на математическую логику – строгую, почтенную дисциплину. Эволюция казалась «грязным» эмпирическим методом без гарантий.
в. Успехи экспертных систем. В 1980-е годы экспертные системы приносили деньги и внимание. На их фоне эволюционные алгоритмы выглядели как лабораторная экзотика.
Тем не менее, эволюционные алгоритмы продолжали развиваться. Они не требовали «бутылочного горлышка знаний» (не нужно было извлекать правила из экспертов). Им нужны были только данные и критерий качества. Именно эта особенность сделает их востребованными в эпоху больших данных, которая начнется через два десятилетия.
4. Перцептрон Фрэнка Розенблатта.
4.1. Первая обучаемая машина.
В 1958 году американский нейрофизиолог Фрэнк Розенблатт представил перцептрон – первую обучаемую машину для распознавания образов. Перцептрон был вдохновлен биологическими нейронами: он состоял из входных сенсоров (аналог сетчатки глаза), промежуточных нейронов и выходного нейрона.
Принцип был прост: на вход подается изображение (например, буква или геометрическая фигура). Перцептрон вычисляет взвешенную сумму входных сигналов и, если сумма превышает порог, выдает «да» (например, «это буква А»), если нет – «нет».
Но главным было то, что перцептрон обучался. Ему показывали примеры с правильными ответами, и он подстраивал веса связей так, чтобы ошибки уменьшались. Это был субсимвольный подход: знание хранилось не в виде правил, а в виде весов – чисел, распределенных по связям между нейронами.
Перцептрон вызвал огромный энтузиазм. Журнал The New York Times писал: «Первая мыслящая машина». Розенблатт утверждал, что перцептроны смогут распознавать лица, читать рукописный текст и даже учиться на собственном опыте. Казалось, что у символьного ИИ появился серьезный конкурент.
4.2. Критика Мински и Пейперта (1969).
Однако в 1969 году Марвин Мински – один из отцов символьного ИИ – и Сеймур Пейперт опубликовали книгу «Перцептроны». В ней они математически доказали фундаментальное ограничение однослойного перцептрона (с одним слоем между входом и выходом). Самый известный пример: однослойный перцептрон не может решить задачу XOR (исключающее ИЛИ). Это логическая операция, которая возвращает «да», если ровно один из двух входов равен 1, и «нет», если оба 0 или оба 1. Пространство признаков для XOR линейно не разделимо. А перцептрон – это линейный классификатор. Он просто не способен провести границу, отделяющую «да» от «нет» в этой задаче.
Книга Мински и Пейперта стала сокрушительным ударом по первым нейросетям. Она показала, что перцептрон Розенблатта – это не универсальная обучающаяся машина, а устройство с жесткими математическими ограничениями. И хотя Мински знал, что многослойные перцептроны (с промежуточными слоями) лишены этих ограничений, он указал, что в 1969 году не существовало эффективного алгоритма для их обучения (алгоритм обратного распространения ошибки будет открыт только в 1986-м).
4.3. Последствия: сворачивание финансирования на десятилетие.
Результат был катастрофическим для нейросетей. Финансирование исследований резко сократилось. Многие молодые ученые ушли в другие области. Научные журналы перестали публиковать статьи о нейросетях. Началась «первая зима нейросетей», которая продлилась почти десять лет – с конца 1960-х до середины 1980-х годов.
Символьный ИИ, напротив, укрепил свои позиции. Экспертные системы процветали. Критика Мински воспринималась как окончательное доказательство того, что нейросети – тупиковая ветвь. В учебниках по ИИ 1970–1980-х годов нейросетям уделялось не более пары страниц – как историческому курьезу.
5. Другие альтернативные направления.
Помимо трех основных направлений, в 1960–1980-е годы существовали и другие альтернативы символьному ИИ, которые не получили широкого распространения, но оказали влияние на последующее развитие:
– нечеткая логика (fuzzy logic, Лотфи Заде, 1965) – подход, оперирующий не бинарными значениями «истина/ложь», а степенями истинности (например, «температура высокая» может быть истинной на 0,8). Это позволяло моделировать неопределенность и неточные понятия, но долгое время оставалась нишевой областью;
– ситуационные исчисления (situation calculus, Джон Маккарти, 1963) – формальный язык для описания изменений в мире, альтернативный STRIPS. Однако он также столкнулся с проблемой фрейма;
– ранние multi-agent системы – идея о том, что интеллект может возникать из взаимодействия множества простых агентов, а не из одного мощного планировщика. Эта идея позже переросла в распределенный ИИ и агентно-ориентированное программирование.
Эти направления оставались на периферии, но их идеи – работа с неопределенностью, распределенный интеллект, ситуационное управление – позже были частично абсорбированы современными подходами.
6. Почему три альтернативные направления проиграли тогда и выиграли потом?
6.1. Итак, три альтернативы символьному ИИ.
Интеллектуальная робототехника (Shakey).
Основная идея: планирование действий в физическом мире.
Главное ограничение в 1970–1980-х гг.: проблема фрейма, сложность символьного описания динамической среды.
Эволюционные алгоритмы.
Основная идея: поиск решений через отбор и мутацию.
Главное ограничение в 1970–1980-х гг.: недостаток вычислительной мощности.
Перцептрон (нейросети).
Основная идея: обучение на примерах, настройка весов.
Главное ограничение в 1970–1980-х гг.: математические ограничения однослойных сетей, отсутствие алгоритма для многослойных.
Но ни одно из этих направлений не смогло тогда составить реальную конкуренцию символьному ИИ. У них были теоретические проблемы (проблема фрейма, ограничения перцептрона), технические ограничения (недостаточная вычислительная мощность) и отсутствие институциональной поддержки (финансирование уходило на экспертные системы).
6.2. Но их идеи не исчезли. Они ждали своего часа – и дождались в 2000–2010-е годы.
Вот ключевые примеры возвращения этих идей.
Обучение с подкреплением (наследник интеллектуальной робототехники).
Проблема фрейма показала, что символьное планирование в реальном мире не работает. Альтернатива – обучение с подкреплением: агент учится действовать, получая награду за правильные действия, без явного символьного описания мира.
Примеры:
– AlphaZero – научилась играть в шахматы, го и сёги с нуля, только играя сама с собой,
– робототехника – современные роботы учатся ходить, захватывать объекты, манипулировать предметами с помощью обучения с подкреплением, а не прописанных правил.
Эволюционные алгоритмы.
Сегодня эволюционные алгоритмы применяются там, где нет явного градиента для обучения (например, оптимизация формы крыла самолета, настройка гиперпараметров нейросетей, эволюционная робототехника).
Примеры:
– Neuroevolution – эволюция весов нейронных сетей без обратного распространения ошибки (полезна в задачах с разреженной наградой),
– автоматизированное проектирование – эволюция схем, антенн, механических конструкций.
Глубокое обучение (наследник перцептрона).
Многослойные нейронные сети с алгоритмом обратного распространения ошибки (Rumelhart, Hinton, Williams, 1986) стали обучаемыми. Но настоящий прорыв произошел в 2010-е годы, когда появились три необходимых условия:
– большие данные (ImageNet – миллионы размеченных изображений),
– мощные GPU (графические процессоры, позволившие обучать сети с миллионами параметров),
– новые архитектуры (сверточные сети, остаточные сети, трансформеры).
Примеры:
– AlphaGo (DeepMind, 2016) – нейросеть, обыгравшая чемпиона мира по го, комбинировала глубокое обучение с обучением с подкреплением (наследник идей роботики),
– ChatGPT / GPT-4 (OpenAI, 2020–2023) – трансформеры, обученные на огромных текстовых корпусах, демонстрируют способности к генерации текста, переводу, программированию, которые в 1980-е годы казались фантастикой.
7. Заключение.
Интеллектуальная робототехника, эволюционные алгоритмы и перцептрон были альтернативами, отодвинутыми на обочину в эпоху доминирования символьного ИИ. Они проиграли тогда по разным причинам: вычислительная слабость, теоретические ограничения, отсутствие институциональной поддержки.
Но они выиграли потом, потому что их идеи оказались более адекватными реальности, в которой мы живем:
– мир не сводится к явным логическим правилам,
– интеллект может возникать из обучения на данных, а не только из формализации знаний,
– адаптация и эволюция – не менее мощные механизмы, чем логический вывод.
Сегодня развития интеллектуальной робототехники, эволюционных алгоритмов и перцептрона доминируют в области ИИ. Глубокое обучение, обучение с подкреплением, эволюционные алгоритмы – это прямые наследники тех самых «альтернатив», которые в 1960–1980-е годы были на обочине. Их победа – не просто технический прогресс, а результат смены парадигмы: от «задай правила» к «дай данные и позволь учиться».
>> Дискуссии и конференции. AI