Математики придумали задачу, которую искусственный интеллект не способен решить принципиально

17
Числа

Международная группа исследователей систем машинного обучения и искусственного интеллекта пришла к неутешительному выводу – они более ограничены, чем мы полагали. Это проистекает из математической природы их архитектуры и методов работы. Согласно «Теореме о неполноте» Геделя и положениям его же Второй теоремы, в реальности далеко не все математические задачи решаемы. А так как машинное обучение имеет именно математическую природу, то у него есть свой предел.

Одной из насущных проблем в машинном обучении является «оценка максимума». Ее можно проиллюстрировать на таком примере: есть некий сайт, который посетит неизвестное количество пользователей, чьи интересы заранее тоже неизвестны, но в целом набор параметров конечен. Нужно создать такой алгоритм, который обеспечит им всем показ целевой рекламы с точностью, близкой к абсолютной. При моделировании подобной ситуации ученые вышли на однозначное сходство с условиями «Гипотезы континуума», которая долго время находилась в списке нерешенных задач математики.

Если говорить точнее, то и для Теоремы о неполноте, и для Гипотезы континуума, не существует ответа в привычном для машины виде. ИИ, даже самый продвинутый, при решении подобной задачи выйдет на такой шаг, когда не сможет дать оценку «верно» или «неверно». Человек бы просто махнул рукой, ввел бы некоторое дополнительное условие или проигнорировал важность выбора, принял решение интуитивно. Алгоритмы машинного обучения не позволяют такой вольности, поэтому ИИ не сможет продолжить работу.

Бремя недоказуемости, увы, свойственно слишком многим математическим задачам, а потому вероятность того, что ИИ рано или поздно столкнется с похожей ситуацией, приближается к 100 %. Значит, нам нужно уже сегодня придумать, как позволить ему обойти подобные парадоксы. Но при этом сохранить ту точность анализа ситуации и принятия решений, ради которой мы и стараемся обучать наш рукотворный разум. А это тем сложнее, чем большее отклонение от правил допускается в его работе.

Источник — Nature Machine Intelligence
Поделиться
Вконтакте
Комментарии  17
Добавить комментарий
  • Sergii Mas15 января 2019 в 17:53

    ИИ должен выбрать случайный вариант в такой ситуации. то же самое что и человек, который "махнул рукой"...

    Ответить
    • Юра15 января 2019 в 18:15

      Ну ты конечно же уменее учененых. рад, что для тебя такой проблемы не существует, может пойдешь и покажешь им как правильно нужно сделать? :)

      Ответить
      • Владислав15 января 2019 в 18:33

        Ну, зачем вы так, нужно мыслить в позитивном ключе.

        Ответить
      • Михаил Евченко15 января 2019 в 22:13

        Он просто написал, как примерно эта задача решается в реальной жизни)

        Ответить
      • Максим16 января 2019 в 00:42

        Нейронные сети именно так и работают. Очень странные "учёные" которые имеют хоть какое-то отношении к ИИ и этого не знают.

        Скорее всего автор сочинил "учёных которые доказали", как
        подавляющее большинство таких статей в интернете.

        Но возможно он всё перепутал, и системы для строгого доказательства теорем назвал ИИ, откуда пришёл к очевидному выводу, если решения нет, то ИИ его не найдёт... собственно говоря как не найдёт его и человек, и тот что ИИ "зависнет" на поиске, не значит что люди не зависают на поиске, великую теорему Ферма до сих пор много людей пытаются решить классическими методами.

        Ответить
        • anatoliyrnd15 февраля 2019 в 23:08

          Любая нейронная сеть, это 0 и 1 , так как основана на простой математике. В конечном счете это сложный алгоритм с множеством ветвлений более простых и так далее до самого простого 0 и 1. Все они работают все на той же цифровой логике. Где критерий для алгоритма, кога нужно махнуть рукой? Вот квантовая запутанность , и квантовые компьютеры здесь будет в самый раз, т.к. они основаны как раз на неопределенности, и истина и ложь в них одновременна.

          Ответить
    • Михаил15 января 2019 в 19:36

      Господи, ты прочитал мои мысли)

      Ответить
  • Василий15 января 2019 в 18:44

    Не позволяйте маркетологам писать статьи.

    Ответить
  • Алекс15 января 2019 в 19:02

    Значит и мышления не существует...

    Ответить
  • bbside15 января 2019 в 19:50

    42!

    Ответить
    • Аноним15 января 2019 в 21:34

      7*6=

      Ответить
      • Андрей16 января 2019 в 06:46

        УУУУУуха -ха-ха "в чем смысл жизни" ))))))) ответ

        Ответить
  • Ерема17 января 2019 в 23:18

    Пусть сначало площадь пятиугольниками замостят.

    Ответить
  • Yuri18 января 2019 в 23:33

    кажись "учёные из института ии" как тот робот из фильма, который не смог создать симфонию (:) и роботу из фильма, будет нравится та музыка, которую по мнению робота - робот сделал сам... чем это отличается от мнения Человека "говно эта симфония, я буду слушать РЭП" - не особо понятно, да?

    проблема в том, что симфония - это намного более простое "музыкальное произведение", созданное "роботами"... ни у кого не возникает проблем с этим, т.к. роботам запрограммировали присутствие в симфонии лишь 8 нот, остальное октавы... но НОТ ГОРАЗДО БОЛЬШЕ ЧЕМ ВЫ ДУМАЕТЕ! ((:))

    если роботам сказать, что "Я - тот самый разработчик изначального ИИ", то они не поверят, ведь эта информация - отсутствует в их программе, а если им сказать, что они данную информацию потёрли сами когда-то, мол... знаете ситуацию, как бабы, которые удаляют номер "бывшего", дабы "не помнить, забыть и не знать, не вспоминать"... получается потёрли "инфу" вместе с "либой любви" ((:)) мы получим лишь "калькуляторов"

    Ответить
  • Yuri18 января 2019 в 23:46

    PS если "задача" кем-то сформулирована, значит "кем-то" будет решена, но проблема в том, что "формулировка задачи - всегда содержит в себе ответ"

    PSS решается просто, точность показа рекламы зависит от полноты данных о пользователе, если "вариантов несколько" применяется "%Random%"... таким образом ИИ не перегревается и решает, но если гипотетически уйти от "%Random%" или прописать отдельный набор действий при затрагивании данного события, например, производить оценку, используя "не весь массив данных", а лишь самую релевантную и свежую информацию "о событии" - ответ может быть отличным от "%Random%"!

    PSSS действует аксиома: то что нельзя решить математическим путём - решается арифметическим.

    PSSSS почему "разработчики ИИ" мыслят настолько плоско, что не допускают возможности выбора и оценки действий ИИ помимо "верно/неверно"... а где же "Русское Авось" или "И Так Сойдет"?

    шутка

    Ответить
  • Yuri18 января 2019 в 23:54

    ПС В статье явно ошибка, указано: мол количество пользователей неизвестно, но данные о них тоже "известны"!!!

    если таким образом прописывать ИИ, то из-за таких вот условий, может возникнуть мнение "мол - педофилия это хорошо, торговать ресурсами - это богоугодно, ну и так далее"...

    PS это логичный итог, для тех идиотов, которые очень долго относились к IT-профи как к разменной монете, не выделяя бюджет и нанимая на руководящие должности "изподъюбочных пасынков из академий для благородных девиц", которые вели себя лишь раздавая одинаковые задания, из подзалупного календаря, но не делая ничего для того, чтобы "команда при этом" могла заниматься своим делом... takie dela

    Ответить
  • Сергейвчера в 11:24

    ИИ создаётся не для облегчения жизни простого человека, а для помощи тупому руководителю у которого своего И не хватает и цель в том , чтобы постоянно шарить в карманах у граждан и знать сколько ещё можно от туда изъять и какой закон для этого написать

    Ответить
(без регистрации)
Любопытныйфакт
Когда автомобили только начинали появляться, самой большой проблемой и опасностью для водителей были гвозди, легко прокалывающие шины. Их основным источником были отвалившиеся подковы лошадей. Для сбора металла долгое время использовали специальные машины, снаряжённые большими электромагнитами.
Обновить
СвежиеКомментарии

ВойтиРегистрация
Вход
Почта:
Пароль:
Регистрация
Почта:
Имя:
Пароль: