Может ли искусственный интеллект переспорить человека?

  • 6 октября 2017
Искусственный интеллект графика Правообладатель иллюстрации Getty Images

Человечество смирилось с тем, что в запоминании и воспроизведении информации компьютерам нет равных. Однако мы все еще способны одерживать победу над машинами в споре. По крайней мере, пока.

Давно известно, что умные машины научились обыгрывать профессионалов в стратегических играх, таких как шахматы.

Мы также пришли к согласию, что искусственный интеллект прекрасно справляется с обработкой большого количества данных.

А что если искусственному разуму окажется под силу справляться с человеческими задачами - понимать тонкие намеки, нюансы речевых оборотов и даже считывать человеческие эмоции для того, чтобы одержать над нами победу в споре?

Эта способность, исследованиями которой занимается все больше научных организаций по всему миру, позволит людям принимать более эффективные решения в будущем.

Научить машину спорить

До недавнего времени создание интеллектуальной машины, способной приводить аргументы и отстаивать точку зрения, считалось невыполнимой задачей.

Смысл, конечно же, не в том, чтобы научить искусственный разум вступать в разборки по поводу парковочного места или спорить на тему того, чья очередь выносить мусор.

Вместо этого машины, которые умеют спорить, в будущем смогут научить людей оспаривать доказательства, искать альтернативу и уверенно принимать решения, тем самым улучшая качество дебатов.

Это может повысить эффективность принятия решений во всем - от инвестирования средств до борьбы с преступностью и улучшения качества здравоохранения.

Однако обучить компьютеры навыкам человеческого общения и объяснить, что значит аргумент в споре, чрезвычайно сложно.

Правообладатель иллюстрации Getty Images
Image caption Чемпион мира по шахматам Гарри Каспаров проиграл компьютеру Deep Blue в 1997 году

Для того, чтобы представить важность аргументов, следует обратиться к залам судебных заседаний.

Представление доказательств - основа судебного процесса, однако социальные нормы, положения закона, эмоциональная чувствительность и практические ограничения влияют на то, как адвокаты, присяжные заседатели и судьи формулируют доводы и выражают мысли.

Несмотря на это, за последние несколько лет ученые начали размышлять над тем, возможно ли смоделировать некоторые человеческие аргументы, чтобы впоследствии превратить в алгоритмы искусственного интеллекта.

В научной сфере это понятие известно как "технология аргументации".

Достигнутые успехи стали возможными благодаря быстрому увеличению количества данных, доступных для изучения компьютерами в области дебатов.

Некоторые данные поступают из платформ по анализу интеллекта - таких как Intelligence Analysis, специализированных интернет-ресурсов или программы Би-би-си Moral Maze.

Правообладатель иллюстрации Hagen Hopkins
Image caption Выбор правильных аргументов имеет ключевое значение в судебном процессе

Помимо этого, были разработаны новые методы обучения машин искусству построения аргументации.

Исследователи в этой области обращаются к философии, лингвистике, информатике и даже праву и политике для того, чтобы понять, на чем основано искусство ведения дебатов.

Например, в британском университете Данди недавно были исследованы труды о риторике двухтысячелетней давности для того, чтобы понять, как строятся аргументы во время публичного выступления.

В результате быстрого прогресса в этой области, феноменом заинтересовались десятки исследовательских лабораторий по всему миру.

Масштаб исследований по вопросу "технологической аргументации" не сравнится ни с какими другими открытиями, которые я наблюдал за последние 20 лет работы в научных кругах.

Почему небо голубое?

Означает ли это, что машины вскоре станут блестящими ораторами и завоюют мир?

Скорее всего, нет. И это можно объяснить на примере из обычной жизни.

До недавнего времени даже самые передовые разработки в области искусственного интеллекта пришли бы в замешательство из-за простых местоимений.

Например, если вы скажете персональному ассистенту на смартфоне: "Мне нравится Эми Уайнхаус. Сыграй мне что-нибудь из ее репертуара", - программное обеспечение не сможет распознать, что местоимение "ее" относится к "Эми Уайнхаус".

Возможно это порадует тех, кого пугает приближение машинного апокалипсиса.

Если такие простые вещи, как определение местоимений, могут ввести искусственный разум в ступор, насколько вероятно, что умные машины смогут вступать в полемику?

Есть как минимум два аргумента в пользу того, что компьютеры недалеки от этого.

Один из них связан с понятиями "оправдания" и "объяснения".

Одно дело - искать информацию в интернете о том, как насилие в видеоиграх влияет на психическое здоровье детей, и совсем другое - создать систему, которая бы автоматически собирала аргументы "за" и "против" допущения подобного насилия.

Эта область была исследована компанией IBM, c которой мы сотрудничаем.

Разработка представляет собой нечто наподобие персонального помощника, который собирает и анализирует противоположные точки зрения по определенному вопросу, давая нам возможность оценить правомерность той или иной позиции.

Image caption Возможно, в ближайшем будущем искусственный интеллект сможет объяснить ребенку, почему небо голубое, не хуже, чем взрослый

Другой вариант связан с разработкой интеллектуальной машины, способной принимать участие в так называемых "диалоговых играх" в зависимости от норм поведения в разных местах - от зала судебного заседания до аукционного дома.

Диалоговые игры по принципу "вопрос-ответ" легли в основу многих философских учений, от Платона до Иоганна Витгенштейна, однако сейчас начинают применяться для того, чтобы помочь компьютерам внести вклад в общение между людьми.

Любой, кто общался с ребенком дошкольного возраста, знаком с правилами детской игры. Взрослый произносит фразу, например: "Какое небо голубое", на что ребенок задает вопрос: "Почему"? Взрослый отвечает, на что малыш задает тот же самый вопрос, и ситуация повторяется.

Обычно разговор заканчивается, когда взрослый пытается сменить тему.

Правообладатель иллюстрации Getty Images
Image caption Исследователи считают, что в будущем искусственный интеллект будет способен помочь предотвратить попытку террористической атаки

Большинство из нас знает, что после череды одних и тех же вопросов бывает трудно дать хороший ответ, и мы начинаем ломать голову.

Для того, чтобы объяснить трехлетнему ребенку, почему небо голубое, не обязательно прикладывать много усилий, хотя в других ситуациях необходимо основательно подумать - например, если речь идет о важном бизнес-решении, затрагивающем сотни рабочих мест, или о предотвращении террористической угрозы.

Если даже самая простая игра в диалог способна помочь найти решение сложного вопроса, насколько эффективны более передовые методы?

Это то, над чем мы работаем.

Раскритиковать аргумент

Если компьютеры будут разбираться в типах аргументов, которыми руководствуется команда для принятия коллективных решений, они также смогут проверить данные, используемые для построения аргументов и на основании этого предлагать варианты развития ситуации или даже давать ответы.

Благодаря искусственному интеллекту люди смогут избегать предубеждений, слабых доказательств и плохо продуманных аргументов, что в конечном итоге поможет улучшить качество дебатов.

Например, мы разрабатываем программное обеспечение, которое распознает аргументы на основании свидетельских показаний.

"Умная" машина может раскритиковать такой аргумент, указав на то, что показания свидетелей могут быть предвзятыми или ненадежными.

Начиная от корпоративных залов заседаний до выполнения посреднической роли между супругами и от анализа информации до разработки дизайна интерьера - искусственный разум может посодействовать принятию обоснованных решений.


Термин "Искусственный интеллект" был впервые введен в начале 1950-х годов, когда ведущие ученые с уверенностью заявили о том, что умным машинам потребуется около 20 лет, чтобы достичь высшей точки развития.

По-видимому, искусственному интеллекту потребуется гораздо больше времени для достижения цели.

Между тем технология аргументации открывает возможность оказывать поддержку людям в принятии более эффективных решений.

Причем цель "разумных" машин - не подчинить себе участников коллектива, а скорее сотрудничать с ними для решения сложных задач.

Возможно, искусственный интеллект даже сможет объяснить трехлетнему ребенку, почему небо голубое.


Об авторе:

Профессор Крис Рид - директор центра по изучению технологии аргументации в британском Университете Данди в Шотландии.

Центр занимается исследованиями прикладной технологии аргументации в разных областях: от философии и лингвистики до искусственного интеллекта и программного обеспечения.

За время существования центр получил более 5 млн фунтов поддержки от ряда организаций.

Новости по теме