Samara Portal Technology, Computers

Самарский портал "Технологии, компьютеры"

Эту тему мне навеяла история вокруг Boeing 737MAX8, которая произошла 10 марта 2019 года. Для начала несколько цитат специалиста, которые показались мне наиболее важными.

Денис Окань, пилот-инструктор, командир Boeing 737

Публикация на Эхе: «Шит происходит внезапно. О катастрофах 737MAX8»

после катастрофы индонезийского самолета выяснилось, что на 737MAX8/9 в целях улучшения характеристик лайнера при ручном пилотировании на больших углах атаки была внедрена система MCAS. Она вступает в работу только в ручном режиме управления и только при убранной механизации крыла. Если датчик угла атаки определил, что самолет находится в опасной зоне, MCAS начинает медленно (0.25 град/сек) перекладывать стабилизатор на пикирование

дефектный датчик, сдуру посылавший в систему данные о запредельных углах атаки, был принят MCAS на веру, и она, повинуясь коду, заложенному в нее эффективными программистами, нежно и печально начала перекладывать стабилизатор на пикирование
Обычное триммирование кнопкой на штурвале может прекратить работу MCAS, тем не менее, MCAS начнет работать снова через 5 секунд после того, как переключатель отпущен

Пилоты могут деактивировать работу MCAS выключателем электромотора и управлять положением стабилизатора вручную

мы сидим в кабине не для красоты и не для получения больших зарплат. Мы там сидим, чтобы сделать все возможное и подчистить косяки — конструкторов, техников, диспетчеров и всех остальных прочих

А теперь что я вообще думаю, тем более что с одним из сыновей на эту тему дискутируем постоянно.

Мой собственный опыт управления ограничивается автомобилем, однако я уверен, что вопросы вождения легко проецируются и на остальное: самолёты, суда, космические корабли и всё, чем ещё можно управлять.

Использование ИТ (ИИ) в управлении транспортным средством я бы разделил на три главных категории: информирование, оптимизация, управление.

Информирование. Оно начинается с простого датчика уровня топлива и простирается до прокладывающего маршрут навигатора. Безусловно, эти устройства постоянно совершенствуются, механические стрелки превращаются в нарисованные на экранах (и уже не обязательно стрелки), критически важный индикатор может поменять цвет, увеличиться в размерах, замигать, обратить на себя внимание звуком… В общем, дело благое и полезное. Порассуждать всерьёз, наверное, можно только о том, что, поскольку информационные технологии развиваются быстрее остальных, желательно было бы не только перепрошивать «мозги», но и менять их. Но здесь на пути стоит та самая безопасность и один из её принципов: «не беспокоит – не крути».

С оптимизацией уже сложнее. Я много лет отъездил на автомобиле с карбюратором и, конечно, научился заводить его зимой, манипулируя подсосом и педалью газа. Но инжектор с электроникой, конечно, делают это лучше. При том, что контроль нисколько не утерян – как управлялась мощность педалью, так и управляется. Безусловно, положительную роль играет и «гармонизация» вращения колёс: в отличие от велосипеда водитель не имеет возможности сам распределять тормозное усилие по колёсам, поэтому выходит, что кроме автомата это делать некому. Да и с тяговым то же самое.

А вот автоматическое переключение передач уже не столь однозначно. Приведу только один пример: как-то зимой я попал в настоящее «озеро» – прорвало трубы, к сожалению, обычное для нас дело. Даже для первой передачи скорость была слишком высокой – залило бы всё под капотом. А медленнее ехать – можно заглохнуть. И тогда я дал газу побольше, а сцеплением чуть подрабатывал – чтобы проскальзывало. В правильности решения убедился, когда выбрался из лужи – на малых (холостых) оборотах двигатель тут же заглох. И это не единственная ситуация: если застрял в снегу, «в раскачку» на автомате тоже не выберешься.

Однако хуже всего дело обстоит с управлением, когда непонятно кто управляет, «робот» (ИИ) или человек? Нет, когда человек на заведомо (примем в первом приближении) безопасных участках передаёт управление роботу (и отвечает за своё решение), а после себе это управление возвращает, здесь всё понятно. Но есть в технике такая штука, как «защита от дурака». В простейших случаях, это, например, две утопленных в корпус кнопки, разнесённые на такое расстояние друг от друга, что одновременно нажать их можно только двумя руками. Такая защита используется в управлении прессом, чтобы рука оператора не оказалась в рабочей зоне и не была отрублена штампом.

Но когда дело касается движения, динамики – где та грань, до которой автоматика имеет право страховать водителя и после которой она не должна вмешиваться? Айзек Азимов формулировал свои законы робототехники в самом общем виде, это, скорее, декларация о намерениях, чем жёсткие рамки поведения, и нам они мало чем помогут. Замечательная посадка тяжёлого самолёта на воду Гудзона, совершённая Чесли Салленбергером, не даёт нам никаких идей в этом плане. Точнее, утверждает нас в мысли, что невозможно смоделировать все ситуации, в которую попадёт транспортное средство и тем более найти в каждом случае оптимальное решение. Словосочетание «человеческий фактор», как правило, используется в негативной коннотации, когда человек делает ошибку, которую бы не сделала автоматика, но в тяжёлых ситуациях только на него и остаётся надеяться. Поэтому полностью перехватывать управление или немного подправлять водителя (пилота, рулевого) робот, очевидно, не должен. В конце концов, если принять, что он управляет лучше человека, зачем тогда вообще человек у руля?

Другая модель сотрудничества на первый взгляд, выглядит более логично: человек передаёт управление роботу, сам отдыхает, но в любой момент готов принять управление на себя. Сразу оговорюсь, что это не случай автопилота, когда вокруг бескрайний простор и требуется просто держать курс. Так вот, робот, не сориентировавшись в обстановке, создаёт аварийную ситуацию, в какой-то момент понимает это и говорит человеку: а теперь выбирайся, как знаешь. Возможный вариант: человек, раньше робота сообразивший, что дело плохо, сам берёт управление. В обоих случаях ситуация заведомо хуже, чем если бы робот вообще не управлял, ибо исправлять ошибки всегда сложнее, чем их не допускать.

Интересную мысль вычитал недавно у главы компании Microsoft Сатьи Наделлы (Satya Nadella): по мере усиления интеллекта устройств разработчикам придётся адекватно усиливать их средства отображения. Чтобы было как в русской пословице: что у трезвого на уме, у пьяного на языке, то есть устройство должно быть открытым и понятным.

Другой пример, иллюстрирующий мысль Наделлы: как отображается «внутренний мир» таракана, птицы, собаки.

О человеко-машинном управлении транспортным средством. Статья Владислава Боярова. Опубликовано 27.03.2019 г.

Вот представим себе на минутку, что удалось вывести животное с внутренним миром собаки, но ему дали «средства отображения» таракана. Не виляет хвостом, не щерит зубы, не рычит, не скулит… как с ней тогда общаться?

То есть, получается, что передавать роботу управление по частям так же невозможно, как перепрыгнуть пропасть в несколько прыжков? Понимаю, что моя мысль не вызовет энтузиазма у тех, кто верит в скорое пришествие беспилотных транспортных средств, но я считаю, что именно так. И что все эти тренировки с беспилотным вождением преследуют в основном маркетинговые цели: мол, и мы не хуже, мы тоже занимаемся искусственным интеллектом. Возможно, здесь ещё присутствует опасение отстать: если ведёшь разработку в каком-либо направлении, то с одной стороны лучше понимаешь его перспективы вообще, а с другой – как ты выглядишь в этой области на фоне остальных. И это понимание как минимум даёт тебе спокойствие.

Так что, совсем тупик? Не совсем, есть как минимум три направления, по которым есть куда двигаться.

Первое – это чисто информационное. Больше и лучше подсказывать водителю, адаптироваться к его манере и квалификации, аккумулировать и распространять водительский опыт. Устраивать разбор полётов, точнее, давать водителю возможность понять его ошибки и недочёты. В плане безопасности, в плане экономичности, в плане комфорта для других участников движения. Повернул, перестроился, «причалил» к бордюру, не включив поворотник – интеллектуальная информационная система выбрала время (чтобы не «под руку») и сделала замечание.

Второе – оптимизация. Прежде всего, это тяговые и тормозные усилия. Летом на сухой дороге с этим проблем нет, а вот вчера вечером у нас подморозило, и я чуть не пролетел поворот. Кстати, возвращаясь к пункту первому – неплохо, если бы система проинформировала.

А вот третье – это создание «экосистем», включающих в себя полностью беспилотные транспортные средства. Не вписывать их в существующую инфраструктуру, а создавать такую инфраструктуру, в которой они могли бы уверенно себя чувствовать. Первое такое транспортное средство – лифт. Если бы вместо него попытались сделать робота, поднимающего жильцов по лестнице, задачу бы не решили, наверное, даже сегодня. Второе, известное мне – подземный беспилотный челнок, перевозящий пассажиров между терминалами аэропорта. Отсюда следующим беспилотным транспортным средством может быть метро. Дальше фантазировать не берусь, но в идее уверен: целиком создавать автоматизированную систему, работающую автономно, без участия человека.

А пока, насколько я понимаю, разработчикам нужно внимательно следить за тем, чтобы транспортное средство в какой-то момент не решило, что оно умнее сидящего за рулём водителя и не стало действовать по собственному разумению. Хотя не сомневаюсь, что об ошибках, подобной той, которую допустили разработчики этого Боинга, мы ещё узнаем. Потому что не ошибается только тот, кто ничего не делает – такова C'est La Vie.

----

«Альфа Конфа» в Самаре

«Альфа Конфа» в Самаре. Статья Владислава Боярова. 05.03.2024 г.

Blood, Sweat & Tears, или Кровь, пот и слёзы – часть четвёртая

Blood, Sweat & Tears, или Кровь, пот и слёзы – часть четвёртая. Статья Владислава Боярова. 12.03.2024 г.

«Домашний компьютер». Конкурс в Самаре.

«Домашний компьютер». Конкурс в Самаре.

Blood, Sweat & Tears, или Кровь, пот и слёзы – часть третья, объединительная

Галопом по вычислительным Европам. Часть 10. Китайский путь и персональная безопасность.

Галопом по вычислительным Европам. Часть 10. Китайский путь и персональная безопасность. Статья Ильи Вайцмана. 11.12.2023 г.