Искусственный интеллект и обучение

По следам дискуссии на HR клубе перевели для вас статью Кларка Куинна, американского эксперта в области когнитивной науки, о возможностях искусственного интеллекта в обучении и развитии.

Об искусственном интеллекте (ИИ) сегодня говорят все. Массовая пресса и бизнес-издания рекламируют новые разработки и пишут о них страшные истории. Преимущества искусственного интеллекта обсуждают крупнейшие компании, а поставщики рассказывают, как используют ИИ для производства своих продуктов. Такой ажиотаж случается не впервые. Вопрос, который волнует многих, звучит так (перефразируя слова Гертруды Стайн): «Ничего — и это все, что там есть?».

Чтобы ответить на этот вопрос, давайте разберемся, что такое ИИ, на что он способен и неспособен, и как его возможности можно использовать для обучения и развития. Для начала нужно понять, что же такое интеллект.

В интеллекте есть два важных компонента — исполнение и изучение. Допустим, если система (человек, животное или что-то иное) способна анализировать сложные ситуации и делать правильный выбор, то ее поведение можно назвать интеллектуальным. Однако такому поведению можно научиться, если постоянно корректировать свои поступки на основе прошлого опыта. Это означает, что интеллект можно создать или приобрести.

Общая информация об ИИ

Существует два вида искусственного интеллекта. Мы называем его «искусственным», потому что он был создан на основе человеческих знаний об интеллекте. Ранние модели ИИ появились во времена когнитивной революции и были ответом на существующую парадигму бихевиоризма. В ее основе лежала мысль о том, что человеку не дано понять, как работает мозг: это «черный ящик», в который входят одни данные, а выходят другие — их-то бихевиористы пытались предугадать.

Но когнитивная революция опровергла эту теорию, и принципы работы мозга стали объяснимы. Первые модели с ИИ подчинялись законам формальной логики, так как они отвечали прежним взглядам на интеллект. В основе законов лежали четкие представления о мире, которые подчинялись определенным правилам. Одни правила, в свою очередь, могли подчиняться другим. Такие системы были созданы для выполнения умных задач и могли обучаться.

Первые модели с ИИ работали в узких предметных областях. Но результаты непрерывных исследований привели ученых к выводу, что непредсказуемое поведение в человеческой когнитивной структуре нельзя объяснить законами логики. В мышлении человека возникают систематические ошибки, которые объективно противоречат логике. Среди таких когнитивных искажений — создание стереотипов, функциональная закрепленность, психологические установки, склонность к подтверждению своей точки зрения, ограниченная рабочая память. Оказалось, что человеческое поведение более зависимо от текущей ситуации, чем от формальной логики. Возникла необходимость усовершенствовать существующую модель ИИ.

«Очеловечить» поведение программируемых систем пытались разными способами — с помощью коннекционизма, генетических алгоритмов и принципов нечеткой логики. Такие системы назвали субсимвольными, так как принципы их работы невозможно описать только с помощью семантики. В определенных ситуациях их поведение, на самом деле, было очень похоже на человеческое. Но эти системы не создавались вручную, а скорее «обучались» с помощью наборов данных и обратной связи.

Сегодня эти два подхода дополняют друг друга. В предметных областях, где поведение задается на основе законов формальной логики, можно использовать символьные системы, которые будут реагировать соответствующим образом. Но обычно их возможности ограничены, и такие модели не дорастают до «общего искусственного интеллекта».

Субсимвольные модели обучаются с помощью наборов данных и обратной связи и вырабатывают способность находить закономерности в этой информации. Они могут успешно работать в непонятных для нас предметных областях, но результаты их работы так же недоступны для человеческого анализа. Эти системы можно научить распознавать эмоции и другие общие модели поведения, но они всегда ограничены заданными условиями.

Недостаток субсимвольных моделей, которые становятся все более популярными, заключается в трудности интерпретации конечных алгоритмов. Поведение этих систем приходится объяснять также, как поведение человека.

Благодаря росту вычислительных мощностей мы можем одновременно работать с двумя системами. Одна из самых известных моделей, IBM Watson, интегрирует работу отдельных систем и определяет наиболее значимые выходные данные у каждой из них. Существует мнение, что такие системы, по сути, занимаются только поиском. Но возникает другой вопрос: как можно (и нужно) использовать ИИ в работе.

ИИ и работа

Системы искусственного интеллекта никогда не устают, выполняют задачи объективно и без ошибок. В этом заключается их основное преимущество. Благодаря обучению и оценке результаты работы систем искусственного интеллекта становятся предсказуемыми. В этом они отличаются от людей. Но такие системы практически не могут выходить за рамки изученного материала. Они учатся на основе обратной связи и в какой-то степени начинают вести себя произвольно, но все же они весьма ограничены.

Для обучения систем все реже вручную создают логические правила. Чаще всего для этих целей используют встроенные алгоритмы. Если мы сможем охарактеризовать входную информацию и предоставить системе обратную связь по удачным и неудачным моментам, она научится обрабатывать большой объем данных и выполнять задания, используя новую информацию. Таким образом, системы можно научить различать визуальные закономерности и применять их в рентгенографии для выявления отклонений. По качеству работы они догонят и обгонят человека.

Компьютеры могут автоматизировать значительную часть задач, которую ранее выполняли люди. Такие системы способны делать работу, которая не под силу человеку: например, быстро и точно выполнять сложные вычисления или запоминать несвязанные факты. Однако принцип их работы достаточно сложно понять, и они не могут выполнять задачи, которые находятся за пределами их тренировочного набора.

ИИ используют для распознавания естественного языка и генерации ответов, например в чат-ботах. ИИ также помогает выявлять неисправности, и его часто применяют в системах управления роботами. ИИ обучают распознавать потоки информации, например новости, обобщать их или выделять главное. Системы с искусственным интеллектом помогают принимать решения в разных сферах деятельности — финансах, медицине, авиации.

Это особенно тревожно для тех, чей труд может можно легко автоматизировать. Но пока на системы ИИ нельзя полностью полагаться, потому что они не справляются с ситуациями, к которым их не готовили. В отличие от людей, у них нет большого опыта, на который можно опереться в незнакомой ситуации. Такую универсальную базу знаний для ИИ пытаются создать уже много лет, но пока безуспешно.

Есть еще один подход: вместо того, чтобы заменять людей компьютерами, нужно придумать, как использовать и тех, и других. Это направление называется усилением интеллекта. Согласно ему, нужно взять лучшее из двух систем и объединить их в одну более эффективную.

ИИ в обучении и развитии

Какую роль играет ИИ в обучении и развитии? На самом деле, большую. Прежде всего, системы с ИИ помогают оптимизировать работу внутри организации. Рано или поздно наступит необходимость объединить работу людей и умных устройств. Это становится очевидно, учитывая, что одной из задач отдела по обучению и развитию является решение проблем с эффективностью компании. Существует несколько основных направлений, где можно использовать ИИ.

Во-первых, ИИ подходит для чат-ботов или похожих инструментов для ответов на вопросы. Они помогут сотрудникам и клиентам получить ответы о политике и процедурах компании, станут опорой для стажеров и облегчат работу сотрудникам службы поддержки.

Во-вторых, ИИ может использоваться в адаптивном обучении. Интеллектуальные обучающие системы отлично подходят для работы в узких предметных областях и механического запоминания. Экспертные модели можно использовать для консультирования учеников по непонятным для них темам. Также они помогают наработать профессиональные навыки.

В-третьих, ИИ выявляет закономерности. Если вы отслеживаете большое количество данных, например через XAPI, система найдет соответствия, которые человек мог упустить. Она поможет с категоризацией, проведет различия между ситуациями, подберет подходящие действия и решения.

Это задачи, которые уже сейчас могут решать системы с ИИ. Однако совсем скоро наступит время, когда им будет под силу:

  • проводить синтаксический анализ текстовой информации, задавать вопросы или отвечать на них;
  • проверять сложные работы и оценивать успеваемость;
  • объяснять принципы работы систем и предлагать рекомендации по использованию.

Но не все так безоблачно. Скорее всего, границы применения ИИ выйдут за пределы организации, и наступит пора задуматься о разделении ответственности. С этической точки зрения, если машины заменят людей, то как мы сможем помочь тем, кто останется без работы? Если системы так сильно зависят от набора данных, которые используются при обучении, как оценить их работу? В каких случаях человек работает лучше компьютера? Не все эти вопросы требуют ответа, но задуматься о них стоит.

Наступил переломный момент, когда ИИ может заменить человеческий труд или дополнить его. По поводу ИИ возникают рабочие и морально-этические вопросы, ответить на которые нужно как можно скорее. Мне кажется, нужно отталкиваться от задачи и для начала разобраться, что должно быть «в мире» (инструменты с ИИ или без него), а что в «голове» (чем будет заниматься человек). Обучение и развитие должно играть в этом процессе ведущую роль.

Оригинал статьи (на английском языке): на сайте Ассоциации по развитию талантов ATD.
Автор — Кларк Куинн, исполнительный директор компании Quinnovation (США).