Страница 1 из 6
Искусственный интеллект как иерархическая структура
В данной статье представлены размышления о подходах, которые могут быть рационально использованы при разработке «операционной системы искусственного интеллекта», и исходных данных для решения этой задачи.
Сергей Корнеев
М ир продолжает работать над созданием Искусственного интеллекта (ИИ). Прогресс не остановить, и система, принципиально не зависящая от человека или которая в принципе может от него не зависеть, будет создана, несмотря на предостережения ряда авторитетов. Искусственный интеллект появится вопреки распространяемым страшилкам.
Законы Азимова. Что вместо них?
В настоящее время идет много разговоров об этичности разработки искусственного интеллекта и потенциальных угрозах для человечества при его появлении.
Нет недостатка в апокалипсических прогнозах: Стивен Хокинг предрекает, что «создание искусственного интеллекта будет последним изобретением человечества», Билл Гейтс вообще ратует за запрет его разработки.
Появляются публикации о необходимости как минимум международной регламентации данной деятельности, связанной с этапами разработки, внедрения и эксплуатации Искусственного интеллекта.
Не далее как 29–30 апреля 2016 года данный вопрос,
подготовленный, кстати, Японией, рассматривался на совещании министров
по информационным и коммуникационным технологиям «Большой семерки».
Человек живет в мире разрешений и запретов. Должны ли для ИИ быть сформулированы подобные тезисы?
Айзек
Азимов задумался над этим вопросом и сформулировал три правила
роботехники, которые вряд ли смогут быть применены на практике. Тем не
менее предлагаются три базовых тезиса, которые могут послужить основой
для разработки:
- не нанесение вреда человеческой жизни и безопасности;
- при
выходе программы ИИ «из-под контроля» должна сохраняться возможность
экстренной «остановки и возврата» к «правильным мыслям»;
- программы ИИ должны эффективно защищаться от злонамеренного вмешательства.
Трудность
регламентации разработок в области ИИ прежде всего определяется
отсутствием в настоящее время общепринятого определения ИИ, но не только
этим.
Препятствующими факторами на государственном уровне являются:
- множественность
коллективов, занятых данными разработками, для которых в подавляющем
большинстве случаев целевой сектор не является основным;
- многокомпонентность систем, т.е. сложность регламентации «по применению»;
- сохранение конфиденциальности работ из-за наличия интеллектуальных прав на разработки либо их закрытого характера.
По
мнению автора, наиболее критичное условие, которое следовало бы
регламентировать как можно ранее, это исключение возможности
«саморазмножения» интеллектуальных роботов — бесконтрольного
воспроизводства «тел с душой» и, тем более, «интеллектуальных агентов» —
это перекликается с обычным признанным правом на «запрет загрузки
программного обеспечения без согласия (контроля) владельца компьютера».
Отход от этого ограничения, возможно, следует допускать только в оговоренных исключительных случаях. Например, в дальнем космосе, глубоком океане и в других «экзотических» средах с внедрением жесткого контроля за «нераспространением».
Большинство же аспектов функционирования систем ИИ вполне могут укладываться в существующую практику государственного регулирования транспорта (особенно авиационного) с учетом идущего процесса легализации беспилотных автомобилей и дронов. Также многое может быть заимствовано из практики регламентации промышленной робототехники и систем автоматического управления. Основное специфическое отличие интеллектуальных систем от «обычных» — возможность спонтанных активных действий при выполнении следующих условий:
- отсутствие побуждающего или управляющего фактора либо сигнала;
- отсутствие команды оператора или иных его действий, которые могли инициировать систему ИИ;
- отсутствие детерминированности в цепочке «стимул — реакция».
Человечество в настоящее время эксплуатирует множество автоматических систем, которые в течение длительного времени поддерживают заданные параметры в замкнутом контуре управления.
Однако данные системы спроектированы на основе принципов технической кибернетики, согласно которым сигнал обратной связи может быть сформирован путем преобразования только выходного сигнала системы, находящейся под управлением. При идентичности заданных входных сигналов и внешних условий существующие системы выдадут один-единственный правильный результат — все остальные будут квалифицироваться как ошибка или отказ.
|