civil_disput (civil_disput) wrote,
civil_disput
civil_disput

Categories:

Как нам понять, чему научилась машина?

Или, точнее, чему мы сами ее научили… Свежий российский пример связан с одной социальной сетью, которая решила, что ее алгоритмам виднее, какие слова оскорбительные, а какие – допустимые. Не буду показывать пальцем, все и так знают.

Вера в ИИ обернулась потерей доверия авторов-людей. Но это еще ничего, у американцев от этого даже Боинги падают. Хотя авторов Дзена это вряд ли утешит, попытаемся понять, что именно пошло не так с машинным обучением?

Возьмем слово «дурак». Ясно, что «дураками» людей называть недопустимо. Так и запишем в алгоритм. Теперь наш алгоритм, обнаружив у какого-то автора высказывание насчет «дураков и дорог», будет считать недопустимыми тексты данного автора. Не дай бог искусственный интеллект полезет учиться дальше и глубже.

Высказывание насчет «дураков и дорог» кому только не приписывают!

Назову лишь трех потенциально недопустимых авторов: А. С. Пушкин, Н. В. Гоголь, М. Е. Салтыков-Щедрин. Все они могут попасть в бан, стоит ИИ того же Яндекса установить нейронные связи между Пушкиным и иже с ним и, например, словом «дороги», которое уже содержит смысловое расширение «и дураки».

А как быть с Иваном-дураком, как насчет «перекинуться в дурачка»? Стоит ли поминать всуе «защиту от дурака» и т. д. Эта штука, если дать ей развернуться, так подчистит культуру, что от культуры ничего не останется.

Теоретически за этими алгоритмами кто-то должен специально наблюдать. И тут мы подходим к очень серьезной проблеме.

Как следить, какими методами?

За последние десять лет нейронные сети со своей способностью учиться и выявлять закономерности в данных изменили множество вещей — от электронной почты до процесса разработки лекарств. Но не обошлось и без подвоха: та самая сложность, которая позволяет современным нейросетям учиться вождению автомобиля и выявлять случаи мошенничества, приводит к тому, что понять их внутреннее устройство почти невозможно — и это проблема даже для экспертов. Если нейронная сеть выявляет пациентов с риском развития рака печени — как, например, система Deep patient — точно определить, на какие именно свойства данных она обращает внимание, нельзя. Ответ на этот вопрос распределён по многочисленным слоям нейронной сети, каждый из которых имеет сотни или тысячи межнейронных связей.

По мере того, как всё больше отраслей пытаются с помощью ИИ улучшить или автоматизировать процесс принятия решений, проблема «чёрного ящика» кажется всё более серьёзным недостатком. Эта тема заинтересовала даже Управление перспективных исследовательских проектов (Defense Advanced Research Projects Agency, DAPRA) Министерства обороны США. Там запустили проект по созданию интерпретируемого ИИ под названием XAI. Обеспечение интерпретируемости перестало быть маргинальной задачей, теперь это одна из центральных задач исследований машинного обучения. «Сейчас для ИИ настал критический момент: человечество пытается решить, хороша эта технология для нас или нет, — говорит Бин Ким (Been Kim), специалист по интерпретируемому машинному обучению из Google Brain. — Если мы не решим проблему интерпретируемости, вряд ли мы возьмём эту технологию с собой в будущее. Может быть, человечество просто забудет про неё». - ссылка

Пока DARPA и Google не могут разобраться с тем, чему они научили свои машины, к двум бедам России добавилась третья: искусственный интеллект.


Tags: искусственный интеллект
Subscribe

Recent Posts from This Journal

  • Крым и почему его нельзя отдать

    "Взять всё и поделить" несложно, но если говорить о передаче территорий или прав законным путем, в соответствии с принципами международного права,…

  • Хасан сказал, Хасан сделал

    Президент Ирана Хасан Рухани заявил, что "преступнику Трампу" осталось жить несколько дней. Это официальное заявление было сделано в прошлую среду,…

  • Великий Туран и прогресс человечества

    После турецко-азербайджанского нападения на Армению и выигранной "двумя государствами - одним народом" войны в Нагорном Карабахе, подобные карты…

promo civil_disput august 9, 2012 18:40 114
Buy for 200 tokens
https://t.me/E_Milutin Похоже, Вы зашли в гости. Меня зовут Евгений Владимирович Милютин. Российский дипломат (в прошлом), историк, востоковед, писатель, автор книги «Психоистория. Экспедиции в неведомое известное». Имел опыт преподавательской работы в Asia Pacific Center for Security Studies…
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 0 comments