Вера в ИИ обернулась потерей доверия авторов-людей. Но это еще ничего, у американцев от этого даже Боинги падают. Хотя авторов Дзена это вряд ли утешит, попытаемся понять, что именно пошло не так с машинным обучением?
Возьмем слово «дурак». Ясно, что «дураками» людей называть недопустимо. Так и запишем в алгоритм. Теперь наш алгоритм, обнаружив у какого-то автора высказывание насчет «дураков и дорог», будет считать недопустимыми тексты данного автора. Не дай бог искусственный интеллект полезет учиться дальше и глубже.
Высказывание насчет «дураков и дорог» кому только не приписывают!
Назову лишь трех потенциально недопустимых авторов: А. С. Пушкин, Н. В. Гоголь, М. Е. Салтыков-Щедрин. Все они могут попасть в бан, стоит ИИ того же Яндекса установить нейронные связи между Пушкиным и иже с ним и, например, словом «дороги», которое уже содержит смысловое расширение «и дураки».
А как быть с Иваном-дураком, как насчет «перекинуться в дурачка»? Стоит ли поминать всуе «защиту от дурака» и т. д. Эта штука, если дать ей развернуться, так подчистит культуру, что от культуры ничего не останется.
Теоретически за этими алгоритмами кто-то должен специально наблюдать. И тут мы подходим к очень серьезной проблеме.
Как следить, какими методами?
За последние десять лет нейронные сети со своей способностью учиться и выявлять закономерности в данных изменили множество вещей — от электронной почты до процесса разработки лекарств. Но не обошлось и без подвоха: та самая сложность, которая позволяет современным нейросетям учиться вождению автомобиля и выявлять случаи мошенничества, приводит к тому, что понять их внутреннее устройство почти невозможно — и это проблема даже для экспертов. Если нейронная сеть выявляет пациентов с риском развития рака печени — как, например, система Deep patient — точно определить, на какие именно свойства данных она обращает внимание, нельзя. Ответ на этот вопрос распределён по многочисленным слоям нейронной сети, каждый из которых имеет сотни или тысячи межнейронных связей.
По мере того, как всё больше отраслей пытаются с помощью ИИ улучшить или автоматизировать процесс принятия решений, проблема «чёрного ящика» кажется всё более серьёзным недостатком. Эта тема заинтересовала даже Управление перспективных исследовательских проектов (Defense Advanced Research Projects Agency, DAPRA) Министерства обороны США. Там запустили проект по созданию интерпретируемого ИИ под названием XAI. Обеспечение интерпретируемости перестало быть маргинальной задачей, теперь это одна из центральных задач исследований машинного обучения. «Сейчас для ИИ настал критический момент: человечество пытается решить, хороша эта технология для нас или нет, — говорит Бин Ким (Been Kim), специалист по интерпретируемому машинному обучению из Google Brain. — Если мы не решим проблему интерпретируемости, вряд ли мы возьмём эту технологию с собой в будущее. Может быть, человечество просто забудет про неё». - ссылка
Пока DARPA и Google не могут разобраться с тем, чему они научили свои машины, к двум бедам России добавилась третья: искусственный интеллект.
Journal information