Искусственный интеллект как иерархическая структура
Автор Сергей Корнеев   
ie_01.jpg

Искусственный интеллект как иерархическая структура

В данной статье представлены размышления о подходах, которые могут быть рационально использованы при разработке «операционной системы искусственного интеллекта», и исходных данных для решения этой задачи.
Сергей Корнеев

Вокруг Света
М
ир продолжает работать над созданием Искусственного интеллекта (ИИ). Прогресс не остановить, и система, принципиально не зависящая от человека или которая в принципе может от него не зависеть, будет создана, несмотря на предостережения ряда авторитетов. Искусственный интеллект появится вопреки распространяемым страшилкам.

Законы Азимова. Что вместо них?

В настоящее время идет много разговоров об этичности разработки искусственного интеллекта и потенциальных угрозах для человечества при его появлении.

Нет недостатка в апокалипсических прогнозах: Стивен Хокинг предрекает, что «создание искусственного интеллекта будет последним изобретением человечества», Билл Гейтс вообще ратует за запрет его разработки.

Появляются публикации о необходимости как минимум международной регламентации данной деятельности, связанной с этапами разработки, внедрения и эксплуатации Искусственного интеллекта.

Не далее как 29–30 апреля 2016 года данный вопрос, подготовленный, кстати, Японией, рассматривался на совещании министров по информационным и коммуникационным технологиям «Большой семерки».

Человек живет в мире разрешений и запретов. Должны ли для ИИ быть сформулированы подобные тезисы?

Айзек Азимов задумался над этим вопросом и сформулировал три правила роботехники, которые вряд ли смогут быть применены на практике. Тем не менее предлагаются три базовых тезиса, которые могут послужить основой для разработки:

  • не нанесение вреда человеческой жизни и безопасности;
  • при выходе программы ИИ «из-под контроля» должна сохраняться возможность экстренной «остановки и возврата» к «правильным мыслям»;
  • программы ИИ должны эффективно защищаться от злонамеренного вмешательства.

Трудность регламентации разработок в области ИИ прежде всего определяется отсутствием в настоящее время общепринятого определения ИИ, но не только этим.

Препятствующими факторами на государственном уровне являются:

  • множественность коллективов, занятых данными разработками, для которых в подавляющем большинстве случаев целевой сектор не является основным;
  • многокомпонентность систем, т.е. сложность регламентации «по применению»;
  • сохранение конфиденциальности работ из-за наличия интеллектуальных прав на разработки либо их закрытого характера.

По мнению автора, наиболее критичное условие, которое следовало бы регламентировать как можно ранее, это исключение возможности «саморазмножения» интеллектуальных роботов — бесконтрольного воспроизводства «тел с душой» и, тем более, «интеллектуальных агентов» — это перекликается с обычным признанным правом на «запрет загрузки программного обеспечения без согласия (контроля) владельца компьютера».

Отход от этого ограничения, возможно, следует допускать только в оговоренных исключительных случаях. Например, в дальнем космосе, глубоком океане и в других «экзотических» средах с внедрением жесткого контроля за «нераспространением».

Большинство же аспектов функционирования систем ИИ вполне могут укладываться в существующую практику государственного регулирования транспорта (особенно авиационного) с учетом идущего процесса легализации беспилотных автомобилей и дронов. Также многое может быть заимствовано из практики регламентации промышленной робототехники и систем автоматического управления. Основное специфическое отличие интеллектуальных систем от «обычных» — возможность спонтанных активных действий при выполнении следующих условий:

  • отсутствие побуждающего или управляющего фактора либо сигнала;
  • отсутствие команды оператора или иных его действий, которые могли инициировать систему ИИ;
  • отсутствие детерминированности в цепочке «стимул — реакция».

Человечество в настоящее время эксплуатирует множество автоматических систем, которые в течение длительного времени поддерживают заданные параметры в замкнутом контуре управления.

Однако данные системы спроектированы на основе принципов технической кибернетики, согласно которым сигнал обратной связи может быть сформирован путем преобразования только выходного сигнала системы, находящейся под управлением. При идентичности заданных входных сигналов и внешних условий существующие системы выдадут один-единственный правильный результат — все остальные будут квалифицироваться как ошибка или отказ.

Вначале было слово

Начинать работу по созданию операционной системы Искусственного интеллекта (Operational System of Artificial Intelligence, AI-OS) весьма непросто. Здесь приходится ру-ководствоваться нестрогими рассуждениями на уровне здравого смысла.

Хотя мы говорим о ней в единственном числе как о понятии, но в ближайшей перспективе их, вероятно, будет несколько, и основным дифференцирующим фактором будет «цель».

Операционная система — это ядро компьютерной «мыслящей» системы. Человек тоже имеет некоторый «встроенный аналог» такой операционной системы, скорее множества операционных систем — это можно предположить из анализа истории травматологии черепа, исследований по сенсорному восприятию и структуре мозга.

На основании этого можно утверждать, что человек способен от рождения идентифицировать себя как личность, хотя также понятно, что вне социума, вне символьной системы взаимодействия реальный «человеческий детеныш — «Маугли» — как личность быстро деградирует, что и позволяет предположить наличие «коллективного интеллекта» наряду с индивидуальным.

Также можно уверенно предположить, что один коллектив, вне зависимости от его мощности, не потянет две разработки, т.е. более одного принципиально различных подходов.

Также очень маловероятно появление новой единственной доминантной компании в области AI-OS — здесь трудно сразу «попасть в яблочко». Так что в научно-технической сфере возникла редкая за последние десятилетия ситуация, когда появилась возможность понастоящему «проявить себя». Ведь внимательно всматриваясь в окружающий мир ОС, можно было бы  подумать, что за пределами «андроидов» жизни нет…

Коллективный интеллект предполагает наличие группы ИИ-объектов

Коллективный интеллект предполагает наличие группы ИИ-объектов

Что следует за определением ИИ

Системы Искусственного интеллекта принципиально обладают инициативой, что разительно отличает их от «неинтеллектуальных систем».

Это означает, что:

  • одинаковые AI-системы могут действовать по-разному в идентичных внешних ситуациях (что определяется различным опытом и отличием в обучении);
  • они могут совершать действия, казалось бы, никакими внешними стимулами не обусловленные — например, даже при отсутствии поступления информации. Это означает, что система ИИ может совершать спонтанные с точки зрения внешнего наблюдателя действия.

Это значит, что AI-система «самопроизвольно» принимает решения на основании внутренних процессов прогнозирования, воображения и планирования.

Как упоминалась в предыдущих статьях, в частности «Искусственный интеллект. Как и зачем?», «СиБ», №2, 2015 г., стр. 72–79, «Искусственный интеллект в бизнесе: Место и время», «СиБ», №4, 2015 г., стр. 10–14, общепринятым определением AI в настоящее время является формулировка Легга-Хаттера 2007 года. Тем не менее в указанных публикациях автор предложил свой конструктивный вариант для характеристики искусственного интеллекта «индивидуального типа»*).

В научно-технической области возникла редкая за последние десятилетия ситуация, когда появилась возможность по-настоящему «проявить себя»


Существует большое количество типов определений. Так, формулировку Легга-Хаттера можно частично отнести к так называемому «интенсиональному типу».

Сильными сторонами этого типа определений является создаваемая ими возможность распознавания объекта или явления. Например, подобное определение «молнии» может выглядеть так: «…это внезапный электростатический разряд во время грозы между электрически заряженными областями объектов:

внутри облака, разных облаков, облака и земной поверхности». Можно еще добавить «…сопровождаемый мощным звуковым эффектом под названием «гром».

Недостатком является, как правило, низкая способность в предоставлении исходных данных для проектирования. Например, вот пример интенсионального определения «самодвижущейся тележки»:

«… это конструкция, способная перемещаться без использования мускульной силы человека или животных». На основании данного определения распознать «самодвижущуюся тележку» можно, но создать — нельзя: нет никаких «подсказок» на то, из чего она состоит и как организована.

Автор в своем определении использовал математический конструктивный подход, который заключается в том, что для доказательства существования математического объекта он «конструируется». Конструктивное определение «самодвижущейся тележки» в этом случае может выглядеть так: «…конструкция на колесах, которая содержит двигатель, имеющий привод на колеса, и источник энергии». Это уже «что-то», позволяющее начать создание автомобиля, паровоза или мотоцикла.

Коллективный интеллект

Биологи и зоологи уже доказали существование очень сложной адаптационной деятельности у насекомых, животных, рыб на уровне, который не присущ любой отдельно взятой особи из этих популяций. Это позволяет говорить о наличии некоего «коллективного интеллекта».

В человеческий популяции «коллективный интеллект» соответствует понятию «интеллекта социального» — бурно развиваемое направление, как минимум, в части манипуляции общественным сознанием, — вряд ли в современном мире кто-то будет серьезно оппонировать наличию такой возможности и практики.

Почему в данной статье такое внимание уделяется «коллективному интеллекту»? Потому что если мы примем решение ограничиться только «индивидуальным уровнем», то непонятно, как в этом случае:

  • организовать эффективные действия группы AI-роботов;
  • вводить для AI-роботов понятие если и не «бога», то, скажем так, «супервизора»?

Необходимость введения «супервизора» для AI-роботов не является очевидной, но на данном этапе такую целесообразность принципиально исключать нельзя. Интерфейс с «супервизором» также принадлежит к уровню «коллективного интеллекта» при его создании.

Интересно, что легче всего создать «бога» для полностью программно-организованных AI-роботов! В этом случае человек может эффективно оставаться за пределами сенсорного восприятия компьютерной программы.

Отметим, что на уровне физических интерфейсов AI-робота введение коллективного интеллекта никак не отражается — их взаимодействие с внешней средой, в том числе с себе подобными, организовывается через имеющиеся средства восприятия информации. Природа этих датчиков понятна: это сенсоры звукового и радиодиапазонов, видимого, инфракрасного и ультрафиолетового света и многое другое по мере необходимости и назначения робота.

Однако возможны также AI-роботы, выполненные в виде программы в виртуальной среде. В этом случае его сенсоры — это программные интерфейсы.

Таким образом, предусмотреть некоторый дополнительный процесс, который будет «отвечать» за коллективный интеллект в виртуальном AI-роботе, достаточно просто.

Понятно, что аспект, который мы пока интуитивно понимаем как коллективный интеллект — это нечто, что не сводится к индивидуальным интересам AI-робота, как и в социальном смысле интересы группы часто противоречат интересам индивидуума. Коллективный интеллект при определенных обстоятельствах может потребовать крайнего риска существования AI-робота, а может и его «самопожертвования». По какому механизму это может быть запрограммировано?

Прямая команда на исполнение не подходит, т.к. она предполагает наличие «супервизора», а мы рассматриваем более общий случай, когда его нет: т.е. AI-роботы строятся как одноранговая система. Можно предположить, что AI-роботы в группе будут, подобно социуму, приобретать некоторые дополнительные «веса/приоритеты». Причем именно «приобретать, а не «назначать».

Приоритет AI-робота в группе может быть «коллективно осознан», например, на основании:
  • частоты (в смысле математической статистики) дублирования группой (ее частью) поведения некоторого AI-индивидуума;
  • частоты выражения поддержки действиям AI-индивидуума (вербального или логического);
  • отсутствия противодействия AI-индивидууму со стороны членов группы;
  • частоты выигрыша AIиндивидуумом некоторых «соревнований» в группе (возможно некоторое коллекционирование рейтингов проигравших особей);
  • приоритет может быть и наследуемым (но это уже противоречие «одноранговости AI-популяции»).



Иерархическая структура интеллекта хорошо иллюстрируется сказкой о Кощее бессмертном. Смерть чародея спрятана в нескольких вложенных друг в друга волшебных животных и предметах: «На море на океане есть остров, на том острове дуб стоит, под дубом сундук зарыт, в сундуке — заяц, в зайце — утка, в утке — яйцо, в яйце — смерть Кощея»

Иерархическая структура интеллекта хорошо иллюстрируется сказкой о Кощее
бессмертном. Смерть чародея спрятана в нескольких вложенных друг в друга
волшебных животных и предметах: «На море на океане есть остров, на том
острове дуб стоит, под дубом сундук зарыт, в сундуке — заяц, в зайце — утка,
в утке — яйцо, в яйце — смерть Кощея»

Иерархия интеллектов

Наследуя определение Легга-Хаттера, для интеллекта коллективного можно предложить следующее:

«Искусственный интеллект коллективного типа проявляется в виде согласованного поведения группы экземпляров AI-роботов, когда члены группы, в общем случае, выполняют различные ролевые действия для достижения целей группы рациональным образом в изменяющихся условиях внешней среды».

А теперь попробуем дать определение AI коллективного типа в конструктивном смысле. «Для возникновения явления AI коллективного типа необходимо одновременное выполнение следующих условий:
  1. наличие группы экземпляров AI-роботов;
  2. наличие наследуемого/обученного понятия родства: однорангового или иерархического;
  3. наличие наследуемого/обученного понятия группового интереса (интересов);
  4. наличие наследуемого/обученного процесса действий группы для достижения целей по условию 3;
  5. наличие наследуемого/обученного стимула/наказания для принуждения членов группы к следованию приоритетам группы.
AI-член группы может формировать некоторый приоритет, который при «предъявлении»/«индивидуальном восприятии» позволяет отдавать команды членам группы. Либо же при обращении к группе ранг приоритета будет прямо влиять на количество членов группы, которые будут следовать выраженному указанию. Этот приоритет может быть и наследуемым (вводимым при производстве) или назначаемым, т.е. устанавливаться супервизором данного AI-аппарата.

В социуме и у животных коллективными целями являются:
1. размножение;
2. совместное добывание пищи/охота;
3. защита от хищников и природных угроз;
4. строительство жилищ;
5. миграция.
Коллективные цели в живой природе всегда связаны с сохранением вида. По аналогии с авторской формулировкой интеллекта индивидуального, в основу которой положен инстинкт самосохранения, автор склонен в основу определения интеллекта коллективного также положить инстинкт сохранения вида. Отдельный вопрос — насколько далеко мы должны заходить в наделении нашего детища антропоморфными свойствами или бионическими аналогиями.

Говоря о Коллективном интеллекте, к вышеприведенному перечню его целей можно добавить еще две, которые не столь прямо относятся к функции сохранения вида:
6. обучение/самообучение (в коллективе, в том числе «наставничество»);
7. выявление лидеров.
Появление в Древней Греции Олимпийских игр вполне укладывается в предлагаемую концепцию — человеческое общество, в общем отказавшись от наличия соревновательного барьера в размножении — «барьерного доступа» самца к самке и в замещении роли лидера — «вожака стаи», — заменило мотивы этих соревнований на: славу и известность и следующий за этим авторитет/приоритет в определении Коллективного интеллекта. Решение этих задач достигалось наименее рисковым способом с точки зрения «утраты кандидата».

Авторитет/приоритет, конечно, зарабатывался также на охоте и в труде, но это было намного более рискованно (охота) или затратно по времени и усилиям (труд).

Обсуждая с автором феномен иерархичности интеллекта в группе LinkedIn, Dr. Dirk Hüske-Kraus (Германия, Штутгарт) высказал очень интересную гипотезу:

«Если перед нами интеллект (при этом неважно, как мы пришли к этому заключению, главное, чтобы оно было истинно), то интеллект находится также как внутри данного интеллекта, так и вне его — «над ним» (множественное отношение принадлежности)». Данное соображение представляется автору очень сильным и похожим на истину. «Вложенность» интеллектов «напрашивается» и вытекает из:
  1. очевидной самоорганизации «составляющих», из которых «выполнены» живые существа: клетки, органы, подсистемы (кровообращение, вегетативная система и др.);
  2. понимания, сформированного системным анализом, а именно того, что цель любой системы лежит за ее пределами: ну не содержит, например, самолет «в себе самом» ничего, чтобы прямо указывало бы, что он предназначен для предоставления оплаченных услуг по перевозке пассажиров.
Рассматривая отношение Коллективного интеллекта к Индивидуальному понятно, что первый (1) угнетает второй, цели коллектива должны быть выше инстинкта самосохранения (к которому индивидуальный интеллект по сути сводится); (2) подчиняет действия членов группы ее общему интересу; (3) стремится обеспечить выживание каждого члена группы в среднем на более высоком вероятностном уровне, чем при индивидуальных действиях. Последнее представляется вероятной гипотезой: гибель всех — невыживание ни одной особи — это не решение задачи сохранения группы! Если Коллективный интеллект не видит позитивного исхода коллективных действий, значит «все врассыпную!!!».

Наблюдая адаптивные возможности клеток, бактерий, внутренних органов, систем жизнеобеспечения организмов, поневоле задумываешься над тем, что каждая из этих подсистем сама по себе является системой. Возможно, роль «интеллекта» по отношению к внутренним органам человека выполняет вегетативная нервная система, включая спинной мозг, подсознание, соответствующие разделы коры головного мозга.

Находится ли что-нибудь над Коллективным интеллектом? Ноосфера? Мы этого не знаем. Но Коллективный интеллект уже представляется вполне «операбельным» понятием.

Процесс коллективного интеллекта в интеллекте индивидуальном может наследуемым образом содержать следующие «постулаты»:

  • при угрозе членам группы AI-член обязан защищать группу или ее членов тем в большей степени, чем выше совокупный приоритет членов группы, находящихся под угрозой, превышает его собственный;
  • AI-член группы должен выполнять команды, поступающие от AI-члена с большим приоритетом тем более активно, чем более существует взаимный сравнительный дефицит приоритета;
  • AI-член группы обязан добиваться исполнения своих команд членом группы с меньшим приоритетом.

«Постулаты» коллективного интеллекта блокируют индивидуальный интеллект тем в большей степени, чем значительнее дефицит приоритета члена группы по отношению к «соплеменникам».



Обеспечение надежного автоматического пилотирования — это одна из зон разработки и внедрения Искусственного интеллекта

Обеспечение надежного автоматического пилотирования — это одна из зон
разработки и внедрения Искусственного интеллекта

Операционная система роботов

Применительно к подвижным интерактивным средствам и военным системам решения задач искусственного интеллекта должны, кроме прочего, учитывать еще и реальное время, часто в «жесткой постановке», когда реакция на внешнее событие должна быть «мгновенной», что в техническом смысле означает время задержки порядка микросекунд.

Конечно, большинство интерактивных задач будут реально отрабатываться «встроенными системами» автоматического регулирования (embedded solutions) — типа часть «подсознания» робота, но несложно придумать примеры, когда встроенная «подсознательная система» должна будет «проконсультироваться» у «сознания».

Так называемая «Операционная система роботов» (Robot Operating System, ROS) не является ОС в традиционном смысле управления процессами и диспетчеризации. Это скорее структурированный коммуникационный уровень (structured communications layer) над операционными системами «хостов» в гетерогенных компьютерных кластерах.

В качестве операционных систем хостов приоритет в рассмотрении имеют коммерческие системы реального времени компаний: LynuxWorks, QNX, Wind River Systems, Green Hills, ВАЕ, Accelerated Technology, Lynx Software Technologies.

По оценке Venture Development Corp. (VDC), одной из ведущих компаний в области IT-анализа, в 1998 году до 50% проектов были разработаны с использованием собственных (in-house) инструментальных технологий (операционных систем реального времени, ОСРВ).

Аналогичный анализ, проведенный VDC в 2004 году, показал следующие результаты: в 44% проектов использовались коммерческие ОСРВ, в 20% — ОС с открытым кодом и лишь для 19% проектов — собственные ОС. На основании этого можно сделать вывод, что стандартизация уверенно превалирует.

Поскольку операционная система AI-типа должна работать в средах реального времени, то она во многом, как представляется, рационально должна наследовать подходы кросс-платформенной организации проекта ROS.

Учитывая угрозу хакерских атак, ядро будущей AI OS должно быть настолько компактным, насколько это возможно. С этой точки зрения некоторые из ОСРВ, которые имеют микроядро, представляются в перспективе в преимущественном положении, например: QNX Neutrino, Integrity, VxWorks.

Ядро LynxSecure компании Lynx Software Technologies претендует стать фундаментом систем безопасности встраиваемого ПО ближайшего будущего. Ядро сертифицировано по DO-178B. Объем исходного кода LynxSecure составляет порядка 8 тыс. строк.



Полноправный выход машин-роботов на дороги не сможет произойти без внедрения системы Искусственного интеллекта

Полноправный выход машин-роботов на дороги не сможет произойти без внедрения
системы Искусственного интеллекта

Вместо заключения

Прежде всего автор считает и готов отстаивать свою точку зрения, что в настоящее время уже есть все для создания интеллектуальных автоматов. Другое дело, что под этим понимать? Антропоморфные роботы из фантастических романов и кинофильма «Его звали Роберт» (этакие неотличимые копии человека) — это не то, это даже вовсе «не туда».

Сфера действия подобных андроидов будет ограничена социальным обеспечением. Задачей подобных роботов будет общение с пожилыми людьми, оказание повседневной помощи категориям населения с ограниченными возможностями и пр.

То, о чем в области реальной интеллектуальной робототехники можно сейчас говорить будет, по-видимому на начальном этапе ограничено двумя принципиальными средами применения: воздушной — беспилотные летательные аппараты, и наземной — автономные самодвижущиеся «тележки».

Потом добавятся роботы подводные. Что объединяет эти задачи?

Прежде всего это: (1) принципиальная невозможность предусмотреть все ситуации, которые могут возникнуть; (2) невозможность напихать в робота все виды датчиков в «требуемом» количестве; (3) принципиальная ограниченность технической кибернетики с точки зрения уровня, достигнутого научно-техническим прогрессом. Касаясь последнего, это принципиальные ограничения кибернетического подхода, основанного на обратной связи: «сигнал — реакция».

А если сигнала нет?
В скольких случаях бездействие равносильно неправильному и даже гибельному действию — это даже юристы знают. Интеллектуальный автомат должен совершать в том числе самопроизвольные действия, не вызванные никакими сигналами.

Беспилотники до сих пор все еще падают, даже такие совершенные боевые системы, как MQ-1 Predator. Когда это чаще всего происходит? Когда они выходят из зоны удаленного управления оператором.

Причина заключается в том, что самолеты проектировались и проектируются при очень ограниченном наборе исходных данных, которые изначально не являются полными.

Остальное возлагается на пилотов. Обеспечение надежного автоматического пилотирования — это зона разработки и внедрения Искусственного интеллекта.

Выход машин-автоматов на дороги также должен учитывать принципиальную непредсказуемость операционной среды.

Несколько проще ситуация с традиционными промышленными роботами — их операционная среда всегда создается максимально предсказуемой. Хотя и там есть задачи.

Например, известно, что внедрение промышленного робота — это изменение технологии, что стоимость работ при этом примерно соответствует стоимости самого робота.

Поэтому можно предположить, что в промышленной области использование подходов искусственного интеллекта, по-видимому, будет связано с увеличением гибкости внедряемых решений.

Сергей КОРНЕЕВ,
специалист по системам
управления и связи,
ua.linkedin.com/in/sergeykorneyev



*) Представительная дискуссия, которая состоялась недавно в группе Applied Artificial Intelligence («Прикладной искусственный интеллект») социальной сети Linkedin, в которой, в частности, приняли участие известные ученые Menno Mafait (Нидерланды, http://mafait.org/challenge/), Jean-Philippe de Lespinay (Франция, http://www.tree-logic.com/) и другие — всего около 20 исследователей из десятка ведущих стран мира, показала, что это определение имеет «право на жизнь и уникально на момент публикации, в том числе в смысле его «конструктивности».



В избранное (0) | Просмотры: 3725

Комментировать
RSS комментарии

Только зарегистрированные пользователи могут оставлять комментарии.
Авторизуйтесь или зарегистрируйтесь.