На автопилот надейся, но и сам не плошай - «Автоновости» » Автошкола "Новостей"
Harrison
Опубликовано: 10:00, 01 сентябрь 2020
Автоновости

На автопилот надейся, но и сам не плошай - «Автоновости»

Очередная история, связанная со знаменитым автопилотом Tesla. Но сейчас, кстати, в ДТП виновна не система, а сам автомобилист, который понадеялся на высшие умы. И когда только водители поймут,...
На автопилот надейся, но и сам не плошай - «Автоновости»

Очередная история, связанная со знаменитым автопилотом
Tesla.
Но сейчас, кстати, в
ДТП виновна не система, а сам автомобилист, который понадеялся
на высшие умы.


И когда только водители поймут, что система автопилот - это
вспомогательная система, которая может посодействовать и взять
часть обязанностей на себя. Но нельзя себя ощущать так, словно вы
находитесь в доме на колёсах, который едет сам, процесс
контролируется системой, а водитель - барин, который может спокойно
отдыхать. История случилась в США. Автомобилист ехал на своём
электромобиле
Tesla Model S. У него был включён режим полуавтоматического
управления Autopilot.


Водитель понадеялся на систему и решил отвлечься на просмотр
фильма. Включил его на смартфоне и полностью отдал управление авто
системе. Итак, в один момент, когда полицейский остановил служебный
автомобиль на обочине для того, чтобы помочь сослуживцу, который
попал в аварию на личном транспорте, произошло ещё одно
происшествие. Та самая Tesla Model S врезалась на скорости в
патрульный автомобиль, а он от удара врезался ещё в одну машину.
Полицейские упали на землю, но, к счастью, все остались живы и
здоровы.


 


Конечно же виновный тут один - водитель электрокара. Он
признался, что отвлёкся на фильм и совсем не смотрел на дорогу. В
ходе расследования так же выяснилось, что на автомобиле была
загружена самая первая версия системы Autopilot и она за всё время
ни разу не обновлялась.


Уже пришлось столкнуться со столькими случаями, в которых
фигурировала система автопилот, что давным-давно всем
автомобилистам нужно было сделать выводы. Да, сейчас
автопроизводители конкурируют друг с другом в создании беспилотного
транспорта и экологически чистого, тем самым зарождают моду и, так
называемый, тренд на подобный транспорт. Социальные сети заполнены
роликами, в которых электрокары самостоятельно гонят по автостраде.
Комментарии буквально взрывались от восторга зрителей, но всё
изменилось после того, как в этих же социальных сетях стали
появляться ролики, в которых автономный Tesla улетел под прицеп
разворачивающегося грузовика. Водитель умер, а экспертиза
установила, что авария произошла из-за того, что датчики ослепились
яркими лучами солнца. Компьютер сбился и не смог распознать то, что
у авто находится под носом.



После встал вопрос безопасности. На этот вопрос
смогли ответить в Париже. Эксперты заявили, что данный вид
транспорта будет безопасен только тогда, когда человек сможет найти
разницу между живым и искусственным интеллектом. Согласитесь, что
мы не всегда находим общий язык с соседом, либо с одним из членов
семьи, пусть им будет хоть собственная мать, а автопилот - это
искусственный интеллект. Понять его невозможно, хоть и создаётся он
человеком. Чтобы доработать полностью, нужно потерять, пожертвовать
и вложить.


Специалисты по искусственному интеллекту вообще сказали, что
весь корень зла заключается в неправильной логике автомобиля.
Эксперименты, которые проводили эксперты компаний Jaguar Land
Rover, а так же Google, говорят о том, что роботизированная машина,
которая ездит только по определённым правилам, может стать намного
опаснее, чем лихачи. Ведь иногда нарушение правил может спасти
кому-нибудь жизнь. Тут говорится про такие случаи, когда
автомобилист, видя препятствие на дороге, должен резко затормозить
и т.д. Водители контактируют друг с другом и придерживаются некого
джентльменского соглашения, а всё подобное электронному разуму
точно чуждо. Кстати, в Великобритании сегодня разработали целый
проект, который должен научить автопилот действовать
по-человечески. А вот удастся это или нет - вопрос.


Говорить о безопасности нужно, ведь количество смертельных
случаев увеличивается. Представьте, что на дорогах неожиданно
начали ремонтировать трубы, либо что-нибудь ещё, наверняка
компьютер со сложившейся дилеммой просто не справится. Так же, если
на дорогу выбежит ребёнок, а в электромобиле будет сидеть пять
человек, то система автопилота задавит малыша посчитав, что
причинить вред одному гуманнее, нежели пожертвовать 5-ми. Такое
поведение, если вы не знали, прописывается в программе. Сложно даже
представить сколько подобных аварий по всему миру происходит в
год.


Андерш Лие говорит, что для того, чтобы спасти людей от
автономных машин, принимаются кардинальные решения. В будущем
придётся исключить либо автономный транспорт, либо человека. Но
скорее всего эксперты склонятся ко второму. Сначала автомобили
научатся менять полосы движения и обруливать препятствия. А чуть
позже система научится видеть плохое настроение водителя.


Но ответственность снимать с человека так же не стоит. Все
прекрасно слышали о
страшных ДТП и не секрет, что система автопилот не может
контролировать ситуацию на дорогах целиком и полностью до такого,
чтобы человек мог отдав управление искусственному интеллекту,
спокойной смотреть фильм.


Очередная история, связанная со знаменитым автопилотом Tesla. Но сейчас, кстати, в ДТП виновна не система, а сам автомобилист, который понадеялся на высшие умы. И когда только водители поймут, что система автопилот - это вспомогательная система, которая может посодействовать и взять часть обязанностей на себя. Но нельзя себя ощущать так, словно вы находитесь в доме на колёсах, который едет сам, процесс контролируется системой, а водитель - барин, который может спокойно отдыхать. История случилась в США. Автомобилист ехал на своём электромобиле Tesla Model S. У него был включён режим полуавтоматического управления Autopilot. Водитель понадеялся на систему и решил отвлечься на просмотр фильма. Включил его на смартфоне и полностью отдал управление авто системе. Итак, в один момент, когда полицейский остановил служебный автомобиль на обочине для того, чтобы помочь сослуживцу, который попал в аварию на личном транспорте, произошло ещё одно происшествие. Та самая Tesla Model S врезалась на скорости в патрульный автомобиль, а он от удара врезался ещё в одну машину. Полицейские упали на землю, но, к счастью, все остались живы и здоровы. Конечно же виновный тут один - водитель электрокара. Он признался, что отвлёкся на фильм и совсем не смотрел на дорогу. В ходе расследования так же выяснилось, что на автомобиле была загружена самая первая версия системы Autopilot и она за всё время ни разу не обновлялась. Уже пришлось столкнуться со столькими случаями, в которых фигурировала система автопилот, что давным-давно всем автомобилистам нужно было сделать выводы. Да, сейчас автопроизводители конкурируют друг с другом в создании беспилотного транспорта и экологически чистого, тем самым зарождают моду и, так называемый, тренд на подобный транспорт. Социальные сети заполнены роликами, в которых электрокары самостоятельно гонят по автостраде. Комментарии буквально взрывались от восторга зрителей, но всё изменилось после того, как в этих же социальных сетях стали появляться ролики, в которых автономный Tesla улетел под прицеп разворачивающегося грузовика. Водитель умер, а экспертиза установила, что авария произошла из-за того, что датчики ослепились яркими лучами солнца. Компьютер сбился и не смог распознать то, что у авто находится под носом. После встал вопрос безопасности. На этот вопрос смогли ответить в Париже. Эксперты заявили, что данный вид транспорта будет безопасен только тогда, когда человек сможет найти разницу между живым и искусственным интеллектом. Согласитесь, что мы не всегда находим общий язык с соседом, либо с одним из членов семьи, пусть им будет хоть собственная мать, а автопилот - это искусственный интеллект. Понять его невозможно, хоть и создаётся он человеком. Чтобы доработать полностью, нужно потерять, пожертвовать и вложить. Специалисты по искусственному интеллекту вообще сказали, что весь корень зла заключается в неправильной логике автомобиля. Эксперименты, которые проводили эксперты компаний Jaguar Land Rover, а так же Google, говорят о том, что роботизированная машина, которая ездит только по определённым правилам, может стать намного опаснее, чем лихачи. Ведь иногда нарушение правил может спасти кому-нибудь жизнь. Тут говорится про такие случаи, когда автомобилист, видя препятствие на дороге, должен резко затормозить и т.д. Водители контактируют друг с другом и придерживаются некого джентльменского соглашения, а всё подобное электронному разуму точно чуждо. Кстати, в Великобритании сегодня разработали целый проект, который должен научить автопилот действовать по-человечески. А вот удастся это или нет - вопрос. Говорить о безопасности нужно, ведь количество смертельных случаев увеличивается. Представьте, что на дорогах неожиданно начали ремонтировать трубы, либо что-нибудь ещё, наверняка компьютер со сложившейся дилеммой просто не справится. Так же, если на дорогу выбежит ребёнок, а в электромобиле будет сидеть пять человек, то система автопилота задавит малыша посчитав, что причинить вред одному гуманнее, нежели пожертвовать 5-ми. Такое поведение, если вы не знали, прописывается в программе. Сложно даже представить сколько подобных аварий по всему миру происходит в год. Андерш Лие говорит, что для того, чтобы спасти людей от автономных машин, принимаются кардинальные решения. В будущем придётся исключить либо автономный транспорт, либо человека. Но скорее всего эксперты склонятся ко второму. Сначала автомобили научатся менять полосы движения и обруливать препятствия. А чуть позже система научится видеть плохое настроение водителя. Но ответственность снимать с человека так же не стоит. Все прекрасно слышали о страшных ДТП и не секрет, что система автопилот не может контролировать ситуацию на дорогах целиком и полностью до такого, чтобы человек мог отдав управление искусственному интеллекту, спокойной смотреть фильм.


Заметили ошЫбку
Выделите текст и нажмите Ctrl+Enter
Обсудить (0)

Top.Mail.Ru