OberonCore
https://forum.oberoncore.ru/

Автопилоты и инициатива Intel
https://forum.oberoncore.ru/viewtopic.php?f=152&t=6144
Страница 1 из 1

Автор:  Илья Ермаков [ Воскресенье, 22 Октябрь, 2017 17:02 ]
Заголовок сообщения:  Автопилоты и инициатива Intel

https://m.geektimes.ru/post/294513/
СНАЧАЛА ЗАЦИТИРУЕМ:
Intel предложила математические правила безопасности для беспилотных автомобилей вместо обучения нейросети.
.....
Создаётся впечатление, что нынешние автопроизводители и IT-компании, которые участвуют в технологической гонке, воспринимают беспилотный автомобиль как продукт — и думают прежде всего об освоении рынка, а не о сотрудничестве с другими автопроизводителями. У компании Mobileye, которая недавно куплена корпорацией Intel, иной взгляд на вещи. Она напоминает всем участникам «капиталистического соревнования», что робокар — это не просто продукт, а индустрия, где должны быть выработаны совместные правила. С этой целью компания разработала первый в мире математический фреймворк для гарантированной безопасности беспилотных автомобилей (pdf). Фреймворк представил на Всемирной форуме знаний в Сеуле (Южная Корея) профессор Амнон Шашуа (Amnon Shashua), который является генеральным директором Mobileye и старшим вице-президентом Intel.
.....
Компания Mobileye создала математический фреймворк для такой общей модели. Он подробно описан в научной работе. Фреймворк основан на двух фундаментальных принципах:
- Доказуемые гарантии безопасности.
- Экономическая масштабируемость.
Mobileye считает, что без ясной модели с описанием этих двух важнейших параметров все усилия по созданию автономных автомобилей станут бессмысленными, то есть робокары превратятся просто в дорогостоящий научный эксперимент.

Существующие разработки не соответствуют именно этим двум важным критериям — стандартным доказуемым гарантиям безопасности и требованиям экономической масштабируемости. К счастью, индустрия теперь понимает возможные проблемы — и у нас есть шанс заранее предусмотреть варианты решения возможных проблем.

Специалисты Mobileye критически высказываются о том, как инженеры-разработчики беспилотных автомобилей сейчас пытаются решить проблемы безопасности статистическими методами. Якобы достаточно накатать определённый (большой) километраж для обучения нейросети — и это гарантирует безопасность автомобиля практически в любой ситуации.
.....
КОНЕЦ ЦИТАТЫ

А теперь задумаемся.

ВО-ПЕРВЫХ, наконец-то серьёзно, на уровне отрасли и рынка, озвучивают очевидную, известную, в общем-то, (но подзамолченную на волне "хайпа") проблему, заключающуюся в том, что нейронка - это "чёрный ящик", а её решения с точки зрения любого анализа и обоснования - "иррациональные". В этом, в свою очередь, показательны два момента: как при выводе технологии на рынок и раздувании хайпа тонкие её особенности отбрасываются (и подаётся всё как магия и универсальная пилюля). А второе - что когда отрасль встаёт на рельсы быстрой коммерциализации и маркетинга (в чём - быстроте и массовости - при должной инженерной ответственности не было б ничего плохого), сами инженеры-внедренцы (а их много, быстро прибежавших в трендовую тему, как обычно) накрепко забывают все тонкие особенности, веря в уже в упрощенную свою же рекламную картинку (или даже, недавно влившись в ряды специалистов по теме, они и не забывали, а просто не знали-не задумывались об этих особенностях, а зачем - ведь хайп обещает, что это великая новая магия, вперёд на ней зарабатывать).

ВО-ВТОРЫХ, вопрос дня. В статье изложена базовая математика модели движения и безопасности как важное дополнение к нейронкам. Но математика-то базовая, без которой в здравом рассудке ВООБЩЕ НЕЛЬЗЯ делать автопилот и тем более выпускать его на дорогу. Т.е., из этой новой и правильной инициативы Интел следует, что разработчики текущих расхваленных автопилотов - полные чисто-ИТ-шные олени, выпустившие на дорогу систему, основанную в логике поведения на нечёткой самообученной нейронке, а не на детерминированной системе принятия решений, с физической моделью и т.п.?
Тогда слов нет. Естественное место нейронки там - на распознавании образов, сенсорной картины, до приведения её в вид формальной модели мира, после чего должна вступать в силу проработанная, детерминированная, явно запрограммированная модель поведения - где нужно, с элементами вероятности и нечёткости, но введёнными в алгоритм явно. Если требуется - вспомогательные нейросети, "консультирующие" центральный алгоритм (используя главное свойство нейронки - способность классификации и абстрагирования до инвариантной модели).

Но делать нейронку основным центром управления и принятия решения - это верх недоученного ИТ-шного безумия. И "голый король" под пеной пиара.

В принципе, ситуация тут сходна с область компьютерной лингвистики. Есть лёгкий шаманский путь - чисто статистический.
И есть трудный путь - становиться лингвистом и убить много лет на явную реализацию морфологии и синтаксиса
в соответствии с правилами языка. Именно поэтому движков hiend-класса в этой сфере и в России, и в мире
- раз два и обчёлся (как, например, RCO - http://rco.ru/, вед. разр. - А. Е. Ермаков).

На это могут потом наслаиваться-встриваться разные нечёткие алгоритмы (и нейронки), но заменить явно реализованную логику
невозможно.
Потому что для этого будет нужна нейронка мощности мозга, которую можно научить не обработке текстов,
а ПРАВИЛАМ ОБРАБОТКИ ТЕКСТОВ (а до этого прокачать её сначала до уровня абстрагирования и понятий 12-летнего ребёнка).
Т.е. вы получите нейронку, на которой исполняется ЯВНАЯ ЛОГИКА, та самая, которую кто-то не хотел явно же и пррограммировать.

В общем-то, это достаточно понятные нормальному математику и/или лингвисту вещи - все эти уровни, соотношение возможностей уровней и метауровней.
Печально, что технари, как обычно, носятся с "писаной торбой", как с шаманским бубном.
При этом если в сфере лингвистики это (пока) не грозит фатальными последствиями,
то в сфере систем управления ситуация весьма опасна.

(Уместно вспомнить, кстати, про тысячи жертв, отстреленных американскими беспилотниками в Азии/Африке,
при этом решение там, как утверждается, принимается как раз нейронными сетями - правда, вроде,
с "визой" человека-оператора).

(Ссылка на мой пост в ВК: https://vk.com/ermakovie?w=wall21060334_1035%2Fall)

Автор:  Пётр Кушнир [ Воскресенье, 22 Октябрь, 2017 18:02 ]
Заголовок сообщения:  Re: Автопилоты и инициатива Intel

Да оно уже сейчас выпукло видно, на примере Теслы и их выкидыша-автопилота, который гробит людей и имущество, а разработчики Анализируют Логи и выдают вердикт, мол, водитель виноват. И всё.
Да и ладно, в конце концов, какая разница, сколько гномиков отправится на тот свет, став невольными QA-специалистами. Не хотите же вы на телегах ездить, как говорится.

Есть такой Руслан Карманов, очень часто пишет про всё это довольно смешно, правда нецензурно, поэтому кому надо, сам найдёт.

Автор:  Дмитрий Дагаев [ Воскресенье, 22 Октябрь, 2017 18:53 ]
Заголовок сообщения:  Re: Автопилоты и инициатива Intel

Безопасность осуществляется упрощением ПО, для АЭС точно. Насчет Карманова полностью согласен.

Страница 1 из 1 Часовой пояс: UTC + 3 часа
Powered by phpBB® Forum Software © phpBB Group
https://www.phpbb.com/