На автопилот надейся, но и сам не плошай - «Автоновости»
Очередная история, связанная со знаменитым автопилотом
Tesla. Но сейчас, кстати, в
ДТП виновна не система, а сам автомобилист, который понадеялся
на высшие умы.
И когда только водители поймут, что система автопилот - это
вспомогательная система, которая может посодействовать и взять
часть обязанностей на себя. Но нельзя себя ощущать так, словно вы
находитесь в доме на колёсах, который едет сам, процесс
контролируется системой, а водитель - барин, который может спокойно
отдыхать. История случилась в США. Автомобилист ехал на своём
электромобиле
Tesla Model S. У него был включён режим полуавтоматического
управления Autopilot.
Водитель понадеялся на систему и решил отвлечься на просмотр
фильма. Включил его на смартфоне и полностью отдал управление авто
системе. Итак, в один момент, когда полицейский остановил служебный
автомобиль на обочине для того, чтобы помочь сослуживцу, который
попал в аварию на личном транспорте, произошло ещё одно
происшествие. Та самая Tesla Model S врезалась на скорости в
патрульный автомобиль, а он от удара врезался ещё в одну машину.
Полицейские упали на землю, но, к счастью, все остались живы и
здоровы.
Конечно же виновный тут один - водитель электрокара. Он
признался, что отвлёкся на фильм и совсем не смотрел на дорогу. В
ходе расследования так же выяснилось, что на автомобиле была
загружена самая первая версия системы Autopilot и она за всё время
ни разу не обновлялась.
Уже пришлось столкнуться со столькими случаями, в которых
фигурировала система автопилот, что давным-давно всем
автомобилистам нужно было сделать выводы. Да, сейчас
автопроизводители конкурируют друг с другом в создании беспилотного
транспорта и экологически чистого, тем самым зарождают моду и, так
называемый, тренд на подобный транспорт. Социальные сети заполнены
роликами, в которых электрокары самостоятельно гонят по автостраде.
Комментарии буквально взрывались от восторга зрителей, но всё
изменилось после того, как в этих же социальных сетях стали
появляться ролики, в которых автономный Tesla улетел под прицеп
разворачивающегося грузовика. Водитель умер, а экспертиза
установила, что авария произошла из-за того, что датчики ослепились
яркими лучами солнца. Компьютер сбился и не смог распознать то, что
у авто находится под носом.
После встал вопрос безопасности. На этот вопрос
смогли ответить в Париже. Эксперты заявили, что данный вид
транспорта будет безопасен только тогда, когда человек сможет найти
разницу между живым и искусственным интеллектом. Согласитесь, что
мы не всегда находим общий язык с соседом, либо с одним из членов
семьи, пусть им будет хоть собственная мать, а автопилот - это
искусственный интеллект. Понять его невозможно, хоть и создаётся он
человеком. Чтобы доработать полностью, нужно потерять, пожертвовать
и вложить.
Специалисты по искусственному интеллекту вообще сказали, что
весь корень зла заключается в неправильной логике автомобиля.
Эксперименты, которые проводили эксперты компаний Jaguar Land
Rover, а так же Google, говорят о том, что роботизированная машина,
которая ездит только по определённым правилам, может стать намного
опаснее, чем лихачи. Ведь иногда нарушение правил может спасти
кому-нибудь жизнь. Тут говорится про такие случаи, когда
автомобилист, видя препятствие на дороге, должен резко затормозить
и т.д. Водители контактируют друг с другом и придерживаются некого
джентльменского соглашения, а всё подобное электронному разуму
точно чуждо. Кстати, в Великобритании сегодня разработали целый
проект, который должен научить автопилот действовать
по-человечески. А вот удастся это или нет - вопрос.
Говорить о безопасности нужно, ведь количество смертельных
случаев увеличивается. Представьте, что на дорогах неожиданно
начали ремонтировать трубы, либо что-нибудь ещё, наверняка
компьютер со сложившейся дилеммой просто не справится. Так же, если
на дорогу выбежит ребёнок, а в электромобиле будет сидеть пять
человек, то система автопилота задавит малыша посчитав, что
причинить вред одному гуманнее, нежели пожертвовать 5-ми. Такое
поведение, если вы не знали, прописывается в программе. Сложно даже
представить сколько подобных аварий по всему миру происходит в
год.
Андерш Лие говорит, что для того, чтобы спасти людей от
автономных машин, принимаются кардинальные решения. В будущем
придётся исключить либо автономный транспорт, либо человека. Но
скорее всего эксперты склонятся ко второму. Сначала автомобили
научатся менять полосы движения и обруливать препятствия. А чуть
позже система научится видеть плохое настроение водителя.
Но ответственность снимать с человека так же не стоит. Все
прекрасно слышали о
страшных ДТП и не секрет, что система автопилот не может
контролировать ситуацию на дорогах целиком и полностью до такого,
чтобы человек мог отдав управление искусственному интеллекту,
спокойной смотреть фильм.