Хакер создал самообучающийся автопилот

Тема в разделе "Наука и техника", создана пользователем Alone Coder, 17 дек 2015.

  1. Alone Coder

    Alone Coder New Member

    Один хакер на днях собрал самодельный автопилот для автомобиля:

    Но как можно доверять человеческие жизни недетерминированному устройству (то есть работающему не по жёстким правилам, а по результатам самообучения)? Кто будет отвечать за последствия?

    Исторически проблема искусственного интеллекта рассматривалась детерминированно - например, для автоматического переводчика составлялись схемы и таблицы, правила вывода и т.п. (первый такой проект был представлен ещё до появления компьютеров - механизированное переводное устройство П.П. Смирнова-Троянского, 1933 год). А самообучающиеся системы использовались для распознавания образов (теория перцептрона - 1957 год).

    У первого метода недостаток в большом времени на создание полного комплекта правил и отсутствии гибкости. У второго - в долгом обучении и ненадёжности. Но у каждого варианта есть применение - в шахматы лучше играет детерминированная программа, а на бирже - самообучающаяся (а самообучающийся гуглопереводчик иногда переводит лучше, чем его детерминированные коллеги).

    Интуитивно понятно, что самообучающаяся программа имеет большой потенциал в качестве генератора идей управления, но только идей - решение должен принимать человек. Никому в голову не придёт ставить самообучающуюся систему для управления ядерным оружием. Однако на автомобиль поставить рискнули. Где грань?
     
  2. Загрузка...

    Похожие темыФорумДата
    Хакеры подобрали парольКомпьютеры16 окт 2015
    Хакеры взломали сайт епархии города МосквыНовости25 авг 2012
    Живой Журнал атаковали хакерыНовости6 апр 2011
    Вадим и Арсений хакерыНгатитемы14 июн 2010
    Создал язык "Нордтаальс", нужна помощь с переводом словИнтерлингвистика и лингвопроектирование10 фев 2015

  3. Тайльнемер

    Тайльнемер Σοι υν βυρρο. Ix bin æn ézl. x́ó ožòṛ.

    Действительно. Например, мозгу живого водителя.
     
  4. Alone Coder

    Alone Coder New Member

    Живой водитель имеет социальную роль и несёт ответственность. А автомат?
     
  5. Demetrius

    Demetrius Бес джинн фея колдунчик

    Автомату вождение поручает тоже ручается какой-то живой человек.
     
  6. Wolliger Mensch

    Wolliger Mensch Haariger Affe

    Вот и хватит. Больше не нужно было ничего писать. Ответьте только на один вопрос: если вы накажете провинившегося, почувствуете животную радость от возмездия, как это исправит ошибку? Воскресит ли это погибших и исцелит покалеченных?
     
  7. Alone Coder

    Alone Coder New Member

    В условиях отсутствия морали (до чего западный мир уже практически дошёл) от совершения антиобщественных деяний сдерживает только наказание. Без наказания человек будет раз за разом повторять плохой поступок, особенно если он получает от него удовольствие.
     
  8. piton

    piton New Member

    Да повесят ответственность на владельца средства повышенной опасности. Нашли чем пугать останавливать прогресс.
     
  9. Awwal12

    Awwal12 New Member

    Все равно ж будущее за автопилотными системами.
    Хотя вообще ПЕРВОЕ, на что такие системы стоило бы ориентировать - это именно предотвращение аварийных ситуаций (из-за априори лучшего времени реакции компьютера).
    Соответственно, самообучаемые системы - это хорошо, но они не должны быть целиком обучаемыми - в них должен изначально закладываться жесткий код, получающий приоритет в определенных обстоятельствах.
     
  10. Alone Coder

    Alone Coder New Member

    Я бы предположил некие жёсткие правила "игры", в которую "играет" самообучающийся компьютер. Но для этого и распознавание образов, и система управления, и вся логика вплоть до "движение для столкновения с препятствием запрещено" должны быть детерминированными. "Играть" можно только в рамках навигации, смены полос, скоростного режима и решения мелких задач оптимизации.
     
  11. Y.R.P.

    Y.R.P. Два марксиста на одном Роге не уживутся.

    Конечно. Вот как это работает IRL:
    [youtube]https://www.youtube.com/watch?v=eus__5aSK8c[/youtube]
     
  12. _Swetlana

    _Swetlana New Member

    Системы компьютерного зрения используют нейросистемы, для распознавания образов. А вот для принятия решений нейросистема слишком медленная весчь, у автопилотов время вычислений ограничено секундами. В пункте 2 опишу существующего робота-таксиста (2003 г.).

    1. Автопилот - экспертная система.
    Возможности обучения нет, в базе знаний зашито большое количество правил. Правила сами по себе простые, но их много, и они организованы в сложную иерархическую систему. Французские аэробусы летают с такими автопилотами, причём живой пилот не может отключить автопилот. В этом отличие наших(и американских) самолётов от французских, у них автопилот отключить нельзя. Смотрела видео, интервью с опытном пилотом, он рассказывал, в частности, о поединках в критических ситуациях между живым пилотом и бортовым компьютером-ЭС. Заканчиваются эти поединки всегда трагически. А буквально неделю назад прочитала, что у аэробусов обнаружен некий дефект конструкции, в определённых обстоятельствах отваливается хвост. И теперь все бортовые компьютеры будут "перепрограммированы", то есть в правила базы знаний внесут изменения, создав запрет на переход к соответствующие режимам управления.

    2. Автопилот - адаптивный (обучающийся) интеллектуальный агент.
    Обучение происходит на основе обратной связи. Рассел, Норвиг "Искусственный интеллект: современный подход", глава 2. Более подобно опишу принцип управления, в следующих постах.
    Итак, робот-таксист
     
  13. _Swetlana

    _Swetlana New Member

    Общие краткие сведения о самообучающихся агентах, п.2.1-2.2
    ссылка

    Конкретно о проекте робота-таксиста, см. вложение. Схема обучающегося агента, упомянутая в тексте, есть по ссылке.
     
  14. _Swetlana

    _Swetlana New Member

  15. piton

    piton New Member

    Помню, в одном американском фильме пришелец с другой планеты "самообучался" вождению.
    - Раз загорелся желтый, нужно добавить скорости.
     
  16. _Swetlana

    _Swetlana New Member

    Французы так и сделали, исключили человеческий фактор. То есть они думали, что исключили.
    А один наш пилот взял своего 12-летнего сына на работу и посадил в своё кресло. В какой-то момент автопилот начал менять курс и ребёнок в режиме ручного управления стал делать абсолютно то же самое, что было нехорошо, т.к. * 2. Отец сел на своё место, вступил в поединок с экспертной системой, но самолёт вошёл в штопор. Как потом установили - если бы пилот убрал ребёнка и ничего не делал, то автопилот, возможно, выровнял курс. Если бы пилот отключил автопилот, то он, возможно, в режиме ручного управления выровнял курс.
    Наши пилоты, которые пришли в гражданскую авиацию из военной, сами действуют в критических ситуациях на "автопилоте" ручного управления, им такой тип управления не подходит.
     
  17. Тайльнемер

    Тайльнемер Σοι υν βυρρο. Ix bin æn ézl. x́ó ožòṛ.

    То есть, у самолёта 3 режима — автопилот, ручной и «поединок»?
    Зачем последний?
     
  18. Awwal12

    Awwal12 New Member

    Как я понимаю, полноценного ручного там вообще нет, в том и беда.
     
  19. Türk

    Türk New Member

    У автопилотов для автомобилей есть центральная система управления всех подключенных? Или каждая система ограничена внутри одной машины? Если нет, не лучше ли просто создать центральную систему?
     
  20. _Swetlana

    _Swetlana New Member

    "Поединок" - действия русского пилота, которые не предусмотрены создателями французских аэробусов. Режим у аэробусов один - неотключаемый автопилот. А в русских и американских самолётах пилот одним нажатием кнопки автопилот отключает и переходит в режим ручного управления. Правда, это речь о гражданской (пассажирской и грузовой) аэробусной авиации. А как они делают военные самолёты, не знаю.
     
  21. Bhudh

    Bhudh aka 蝎

    Система давно создана, просто в продакшн её выпускать не решаются.
    [youtube]r7_lwq3BfkY[/youtube]