Как начинался компьютер
Компьютерная революция
Двоичный код
Разработки военных лет
Интегральные микросхемы
Микрокомпьютер
Персоны
Сеть
Язык компьютера
Развитие ПО
Гибкие системы
Средства разработки
Информатика
Вычислительная наука
Операционные системы
Искусственный интеллект
Предыстория
Поиск
Знания и рассуждения
Логика
Робототехника
 

 
Будущее ИИ Печать

Что такое искусственный интеллект?

Наука под названием «искусственный интеллект» входит в комплекс компьютерных наук, а создаваемые на ее основе технологии относятся к информационным технологиям.

Задачей этой науки является обеспечение разумных рассуждений и действий с помощью вычислительных систем и иных искусственных устройств.

На этом пути возникают следующие главные трудности:

  • в большинстве случаев до получения результата не известен алгоритм решения задачи. Например, точно неизвестно, как происходит понимание текста, поиск доказательства теоремы, построение плана действий, узнавание изображения.
  • искусственные устройства (например, компьютеры) не обладают достаточным уровнем начальной компетентности. Специалист же добивается результата, используя свою компетентность (в частности, знания и опыт).

Это означает, что искусственный интеллект представляет собой экспериментальную науку. Экспериментальность искусственного интеллекта состоит в том, что создавая те или иные компьютерные представления и модели, исследователь сравнивает их поведение между собой и с примерами решения тех же задач специалистом, модифицирует их на основе этого сравнения, пытаясь добиться лучшего соответствия результатов.

Чтобы модификация программ «монотонным» образом улучшала результаты, надо иметь разумные исходные представления и модели. Их доставляют психологические исследования сознания, в частности, когнитивная психология.

Важная характеристика методов искусственного интеллекта – он имеет дело только с теми механизмами компетентности, которые носят вербальный характер (допускают символьное представление). Далеко не все механизмы, которые использует для решения задач человек, таковы.

Истоки (с чего все начиналось)

Первые исследования, относимые к искусственному интеллекту были предприняты почти сразу же после появления первых вычислительных машин.

В 1954 году американский исследователь А.Ньюэлл (A.Newel) решил написать программу для игры в шахматы. Этой идеей он поделился с аналитиками корпорации «РЭНД» (RAND Corporation) Дж. Шоу (J.Show) и Г.Саймоном (H.Simon), которые предложили Ньюэллу свою помощь. В качестве теоретической основы такой программы было решено использовать метод, предложенный в 1950 году Клодом Шенноном (C.E. Shannon), основателем теории информации. Точная формализация этого метода была выполнена Аланом Тьюрингом (Alan Turing). Он же промоделировал его вручную.

К работе была привлечена группа голландских психологов под руководством А. Де Гроота (A. de Groot), изучавших стили игры выдающихся шахматистов. Через два года совместной работы этим коллективом был создан язык программирования ИПЛ1 - по-видимому первый символьный язык обработки списков. Вскоре была написана и первая программа, которую можно отнести к достижениям в области искусственного интеллекта. Эта была программа "Логик-Теоретик" (1956 г.), предназначенная для автоматического доказательства теорем в исчислении высказываний.

Собственно же программа для игры в шахматы, NSS, была завершена в 1957 г. В основе ее работы лежали так называемые эвристики (правила, которые позволяют сделать выбор при отсутствии точных теоретических оснований) и описания целей. Управляющий алгоритм пытался уменьшить различия между оценками текущей ситуации и оценками цели или одной из подцелей.

В 1960 г. той же группой, на основе принципов, использованных в NSS, была написана программа, которую ее создатели назвали GPS (General Problem Solver )- универсальный решатель задач. GPS могла справляться с рядом головоломок , вычислять неопределенные интегралы, решать некоторые другие задачи. Эти результаты привлекли внимание специалистов в области вычислений. Появились программы автоматического доказательства теорем из планиметрии и решения алгебраических задач (сформулированных на английском языке).

Джона Маккарти (J.McCarty) из Стэнфорда заинтересовали математические основы этих результатов и вообще символьных вычислений. В результате в 1963 г. им был разработан язык ЛИСП (LISP, от List Processing ), основу которого составило использование единого спискового представления для программ и данных, применение выражений для определения функций, скобочный синтаксис.

В это же время в СССР, в основном, в Московском университете и Академии наук был выполнен ряд пионерских исследований , возглавленных Вениамином Пушкиным и Дмитрием Поспеловым, целью которых было выяснение, как же, в действительности, человек решает переборные задачи?

В качестве полигона для этих исследований были выбраны различные математические игры, в частности, игра "15" и игра "5",а в качестве инструментального метода исследования -- регистрация движения глаз или гностическая динамика. Основными методами регистрации движения глаз были электроокулограмма и использование присоски, помещаемой на роговицу.

Цель каждой такой игры заключается в переходе от некоторой исходной ситуации к конечной. Переходы осуществляются путем последовательного перемещения фишек по горизонталям и вертикалям на свободное поле.

Возьмем, например, игру "5", исходная и конечная ситуации в которой выглядят, соответственно, следующим образом:

2

3

5

 

1

4

и

1

2

3

 

4

5

Оптимальным образом задача решается за шесть ходов, которые соответствуют перемещениям фишек 1, 4, 5, 3, 2, 1. Решение было бы намного сложнее, если бы на первом ходу двигалась бы, например, фишка 2, или на втором ходу - фишка 3. Понятно, что задача может быть представлена в виде дерева (или лабиринта), корнем которого является исходная ситуация, а перемещение каждой фишки приводит в новую вершину. Все ситуации являются при таком подходе вершинами графа или точками на дереве игры и именно они являются теми элементами, из которых строится "модель мира". Два элемента связывает ход - преобразование одной ситуации в другую.

Такая модель игры приводит, вообще говоря, к полному перебору или "лабиринту" вариантов и составляет основу лабиринтной гипотезы мышления.

C другой стороны, анализ экспериментальных данных позволил вычленить два вида изменений параметров гностической динамики в процессе обучения решению задачи. А именно, изменения ряда параметров уже при решении второй или третьей из множества однотипных задач у одной из групп испытуемых характеризуется появлением точки излома.

К числу этих параметров относятся время решения задачи, количество осмотров условий, количество осмотров цели, общее количество осмотров, плотность осмотра и отношение числа осмотров условий к числу осмотров цели. У другой же группы испытуемых таких изменений не происходит.

Так, например, отношение числа осмотров условий задачи к числу осмотров цели у первой группы испытуемых претерпевает излом после решения второй задачи и продолжает уменьшаться при решении числа последующих задач. У второй группы испытуемых уменьшения этого отношения не происходит. То же относится и к времени решения задач.

Анализ и других экспериментальных данных подтвердил существование некоторых общих тенденций в динамике обучения решению задач.

Есть все основания полагать, что основным фактором, влияющим на временные характеристики этого процесса у первой группы испытуемых, является момент понимания эквивалентности задач или транспозиции (переноса) отношений, сформированных в ходе решения первых задач.

Изучение всей совокупности данных позволяет связать формирование подобной системы отношений со временем решения второй и последующих задач - именно тогда формируется то общее, что связывает первую и вторую задачи. Осознание общности и, следовательно, "открытие" эквивалентности происходит при столкновении с третьей задачей.

Сопоставление экспериментальных данных свидетельствует также о том, что соотнесение различных ситуаций связано между собой посредством такого когнитивного компонента, как анализ цели. Иначе говоря, анализ исходной ситуации управляется анализом цели и процессом соотнесения исходной и конечной ситуаций. Таким образом, моделирование исходной ситуации является управляемым компонентом, а установленные в конечной ситуации отношения являются регулятором этого моделирующего процесса. Сама же модель исходной ситуации рассматривается с точки зрения ситуации конечной.

Эту модель можно также изобразить в виде графа, но вершинами этого графа будут не ситуации, как при использовании "лабиринта" вариантов, а элементы ситуаций. Ребрами, соединяющими вершины, будут не переходы из одной ситуации в другую, а те отношения, которые были выявлены на множестве этих элементов с помощью гностической динамики. Эти соображения и составляют основу модельной гипотезы мышления и привели к появлению в 1964 г. языка (и метода) ситуационного управления.

К исследованиям в области искусственного интеллекта стали проявлять интерес и логики. В том же 1964 году была опубликована работа ленинградского логика Сергея Маслова "Обратный метод установления выводимости в классическом исчислении предикатов", в которой впервые предлагался метод автоматического поиска доказательства теорем в исчислении предикатов.

На год позже (в 1965 г.) в США появляется работа Дж.А.Робинсона (J.A.Pobinson) , посвященная несколько иному методу автоматического поиска доказательства теорем в исчислении предикатов первого порядка. Этот метод был назван методом резолюций и послужил отправной точкой для создания нового языка программирования со встроенной процедурой логического вывода - языка Пролог (PROLOG) в 1971.

В 1966 году в СССР Валентином Турчиным был разработан язык рекурсивных функций Рефал, предназначенный для описания языков и разных видов их обработки. Хотя он и был задуман как алгоритмический метаязык, но для пользователя это был, подобно ЛИСПу и Прологу, язык обработки символьной информации.

В конце 60-х годов появились первые игровые программы, системы для элементарного анализа текста и решения некоторых математических задач (геометрии, интегрального исчисления). В возникавших при этом сложных переборных проблемах количество перебираемых вариантов резко снижалось применением всевозможных эвристик и «здравого смысла». Такой подход стали называть эвристическим программированием. Дальнейшее развитие эвристического программирования шло по пути усложнения алгоритмов и улучшения эвристик. Однако вскоре стало ясно, что существует некоторый предел, за которым никакие улучшения эвристик и усложнения алгоритма не повысят качества работы системы и, главное, не расширят ее возможностей. Программа, которая играет в шахматы, никогда не будет играть в шашки или карточные игры.

Постепенно исследователи стали понимать, что всем ранее созданным программам недостает самого важного - знаний в соответствующей области. Специалисты, решая задачи, достигают высоких результатов, благодаря своим знаниям и опыту; если программы будут обращаться к знаниям и применять их, то они тоже достигнут высокого качества работы.

Это понимание, возникшее в начале 70-х годов, по существу, означало качественный скачок в работах по искусственному интеллекту.

Основополагающие соображения на этот счет высказал в 1977 году на 5-й Объединенной конференции по искусственному интеллекту американский ученый Э.Фейгенбаум (E.Feigenbaum).