https://m.geektimes.ru/post/294513/СНАЧАЛА ЗАЦИТИРУЕМ:
Intel предложила математические правила безопасности для беспилотных автомобилей вместо обучения нейросети.
.....
Создаётся впечатление, что нынешние автопроизводители и IT-компании, которые участвуют в технологической гонке, воспринимают беспилотный автомобиль как продукт — и думают прежде всего об освоении рынка, а не о сотрудничестве с другими автопроизводителями. У компании Mobileye, которая недавно куплена корпорацией Intel, иной взгляд на вещи. Она напоминает всем участникам «капиталистического соревнования», что робокар — это не просто продукт, а индустрия, где должны быть выработаны совместные правила. С этой целью компания разработала первый в мире математический фреймворк для гарантированной безопасности беспилотных автомобилей (pdf). Фреймворк представил на Всемирной форуме знаний в Сеуле (Южная Корея) профессор Амнон Шашуа (Amnon Shashua), который является генеральным директором Mobileye и старшим вице-президентом Intel.
.....
Компания Mobileye создала математический фреймворк для такой общей модели. Он подробно описан в научной работе. Фреймворк основан на двух фундаментальных принципах:
- Доказуемые гарантии безопасности.
- Экономическая масштабируемость.
Mobileye считает, что без ясной модели с описанием этих двух важнейших параметров все усилия по созданию автономных автомобилей станут бессмысленными, то есть робокары превратятся просто в дорогостоящий научный эксперимент.
Существующие разработки не соответствуют именно этим двум важным критериям — стандартным доказуемым гарантиям безопасности и требованиям экономической масштабируемости. К счастью, индустрия теперь понимает возможные проблемы — и у нас есть шанс заранее предусмотреть варианты решения возможных проблем.
Специалисты Mobileye критически высказываются о том, как инженеры-разработчики беспилотных автомобилей сейчас пытаются решить проблемы безопасности статистическими методами. Якобы достаточно накатать определённый (большой) километраж для обучения нейросети — и это гарантирует безопасность автомобиля практически в любой ситуации.
.....
КОНЕЦ ЦИТАТЫ
А теперь задумаемся.
ВО-ПЕРВЫХ, наконец-то серьёзно, на уровне отрасли и рынка, озвучивают очевидную, известную, в общем-то, (но подзамолченную на волне "хайпа") проблему, заключающуюся в том, что нейронка - это "чёрный ящик", а её решения с точки зрения любого анализа и обоснования - "иррациональные". В этом, в свою очередь, показательны два момента: как при выводе технологии на рынок и раздувании хайпа тонкие её особенности отбрасываются (и подаётся всё как магия и универсальная пилюля). А второе - что когда отрасль встаёт на рельсы быстрой коммерциализации и маркетинга (в чём - быстроте и массовости - при должной инженерной ответственности не было б ничего плохого), сами инженеры-внедренцы (а их много, быстро прибежавших в трендовую тему, как обычно) накрепко забывают все тонкие особенности, веря в уже в упрощенную свою же рекламную картинку (или даже, недавно влившись в ряды специалистов по теме, они и не забывали, а просто не знали-не задумывались об этих особенностях, а зачем - ведь хайп обещает, что это великая новая магия, вперёд на ней зарабатывать).
ВО-ВТОРЫХ, вопрос дня. В статье изложена базовая математика модели движения и безопасности как важное дополнение к нейронкам. Но математика-то базовая, без которой в здравом рассудке ВООБЩЕ НЕЛЬЗЯ делать автопилот и тем более выпускать его на дорогу. Т.е., из этой новой и правильной инициативы Интел следует, что разработчики текущих расхваленных автопилотов - полные чисто-ИТ-шные олени, выпустившие на дорогу систему, основанную в логике поведения на нечёткой самообученной нейронке, а не на детерминированной системе принятия решений, с физической моделью и т.п.?
Тогда слов нет. Естественное место нейронки там - на распознавании образов, сенсорной картины, до приведения её в вид формальной модели мира, после чего должна вступать в силу проработанная, детерминированная, явно запрограммированная модель поведения - где нужно, с элементами вероятности и нечёткости, но введёнными в алгоритм явно. Если требуется - вспомогательные нейросети, "консультирующие" центральный алгоритм (используя главное свойство нейронки - способность классификации и абстрагирования до инвариантной модели).
Но делать нейронку основным центром управления и принятия решения - это верх недоученного ИТ-шного безумия. И "голый король" под пеной пиара.
В принципе, ситуация тут сходна с область компьютерной лингвистики. Есть лёгкий шаманский путь - чисто статистический.
И есть трудный путь - становиться лингвистом и убить много лет на явную реализацию морфологии и синтаксиса
в соответствии с правилами языка. Именно поэтому движков hiend-класса в этой сфере и в России, и в мире
- раз два и обчёлся (как, например, RCO -
http://rco.ru/, вед. разр. - А. Е. Ермаков).
На это могут потом наслаиваться-встриваться разные нечёткие алгоритмы (и нейронки), но заменить явно реализованную логику
невозможно.
Потому что для этого будет нужна нейронка мощности мозга, которую можно научить не обработке текстов,
а ПРАВИЛАМ ОБРАБОТКИ ТЕКСТОВ (а до этого прокачать её сначала до уровня абстрагирования и понятий 12-летнего ребёнка).
Т.е. вы получите нейронку, на которой исполняется ЯВНАЯ ЛОГИКА, та самая, которую кто-то не хотел явно же и пррограммировать.
В общем-то, это достаточно понятные нормальному математику и/или лингвисту вещи - все эти уровни, соотношение возможностей уровней и метауровней.
Печально, что технари, как обычно, носятся с "писаной торбой", как с шаманским бубном.
При этом если в сфере лингвистики это (пока) не грозит фатальными последствиями,
то в сфере систем управления ситуация весьма опасна.
(Уместно вспомнить, кстати, про тысячи жертв, отстреленных американскими беспилотниками в Азии/Африке,
при этом решение там, как утверждается, принимается как раз нейронными сетями - правда, вроде,
с "визой" человека-оператора).
(Ссылка на мой пост в ВК:
https://vk.com/ermakovie?w=wall21060334_1035%2Fall)