Почему НАСА считает автопилот Tesla плохой идеей

После того, как в прошлом месяце стало известно, что водитель автомобиля Tesla Model S, управляемого системой помощи водителю Autopilot, погиб в аварии, эта технология вызвала бурные дебаты.

Регулирующие органы расследуют аварию, чтобы определить, был ли виноват водитель-человек, сам Autopilot или комбинация того и другого.

И вот теперь одно агентство со значительным опытом в этой области высказалось.

DON’T MISS: NHTSA расследует аварию Tesla Model S Autopilot, в которой погиб водитель: Обновлено

NASA изучает психологические эффекты автоматизации на протяжении десятилетий, и, следовательно, может чему-то научить Tesla, отмечает Scientific American.

Срочная новость: автомобили в 2017 году равны самолетам в 1983 году, – сказал журналу Стивен Каснер, психолог-исследователь из отдела интеграции человеческих систем NASA.

Для широкой публики название Автопилот, похоже, подразумевает сходство с автоматизированными системами, которые помогают управлять самолетами, хотя возможности системы Tesla гораздо более ограничены.

Автопилот Тесла больше похож на наборы функций помощи водителю, предлагаемые другими автопроизводителями, чем на настоящую полуавтономную систему.

Даже если бы автопилот обладал большими возможностями, Каснер из NASA подчеркнул принципиальное различие между управлением автомобилями и самолетами, которое делает его использование гораздо более рискованным.

Система автопилота временно выводит человека-оператора из петли управления, и переход обратно к человеческому управлению не может произойти мгновенно.

Но поскольку самолеты летают на высоте нескольких миль в небе, у пилотов обычно есть минута или больше, чтобы перейти от автопилота к ручному управлению.

Это не относится к автомобилям, где у водителей может быть 1 секунда или меньше, чтобы отреагировать на чрезвычайную ситуацию.

Человек также испытывает проблемы с вниманием, когда работают автоматизированные системы, обнаружили в НАСА.

Человеку трудно следить за повторяющимися процессами в течение длительного времени – это явление известно как декремент бдительности.

Иными словами, чем компетентнее автоматизированная система, тем больше вероятность того, что водитель отключится.

Это может быть еще более вероятно в автоматизированных автомобилях, поскольку технология часто предлагается потребителям – явно или неявно – как удобство, позволяющее им использовать время, которое обычно тратится на концентрацию на дороге, для выполнения других задач.

Когда использовать Автопилот? CHECK OUT: Когда использовать систему автопилота Tesla и когда не использовать

Tesla, похоже, намерена использовать автопилот в качестве основы для полностью автономных автомобилей, но между этими двумя технологиями сегодня остается большая пропасть.

Автоматизированные системы, которые действуют заранее определенным образом в конкретных обстоятельствах, – это не то же самое, что автономные системы, которые имитируют гибкость и процессы принятия решений человека-оператора.

С момента запуска Autopilot компания Tesla заявила, что система находится на стадии публичной бета-версии, подразумевая, что она все еще проходит тестирование и разработку.

Это послание было повторено в течение нескольких недель после смертельной аварии.

Но если опыт НАСА с автоматизацией является каким-либо показателем, возможно, не стоит постепенно внедрять подобную технологию для автомобилей.

Если человеческая природа не всегда может справиться с двусмысленностью частично автоматизированного автомобиля, становится сложнее судить о том, на каких основаниях оценивать риски и выгоды от поэтапного подхода, используемого Tesla и другими компаниями.

Оставьте комментарий