На автопилот надейся, но и сам не плошай - «Автоновости» » Автошкола "Новостей"
Harrison
Опубликовано: 10:00, 01 сентябрь 2020
Автоновости

На автопилот надейся, но и сам не плошай - «Автоновости»

Очередная история, связанная со знаменитым автопилотом Tesla. Но сейчас, кстати, в ДТП виновна не система, а сам автомобилист, который понадеялся на высшие умы. И когда только водители поймут,...
На автопилот надейся, но и сам не плошай - «Автоновости»

Очередная история, связанная со знаменитым автопилотом
Tesla.
Но сейчас, кстати, в
ДТП виновна не система, а сам автомобилист, который понадеялся
на высшие умы.


И когда только водители поймут, что система автопилот - это
вспомогательная система, которая может посодействовать и взять
часть обязанностей на себя. Но нельзя себя ощущать так, словно вы
находитесь в доме на колёсах, который едет сам, процесс
контролируется системой, а водитель - барин, который может спокойно
отдыхать. История случилась в США. Автомобилист ехал на своём
электромобиле
Tesla Model S. У него был включён режим полуавтоматического
управления Autopilot.


Водитель понадеялся на систему и решил отвлечься на просмотр
фильма. Включил его на смартфоне и полностью отдал управление авто
системе. Итак, в один момент, когда полицейский остановил служебный
автомобиль на обочине для того, чтобы помочь сослуживцу, который
попал в аварию на личном транспорте, произошло ещё одно
происшествие. Та самая Tesla Model S врезалась на скорости в
патрульный автомобиль, а он от удара врезался ещё в одну машину.
Полицейские упали на землю, но, к счастью, все остались живы и
здоровы.


 


Конечно же виновный тут один - водитель электрокара. Он
признался, что отвлёкся на фильм и совсем не смотрел на дорогу. В
ходе расследования так же выяснилось, что на автомобиле была
загружена самая первая версия системы Autopilot и она за всё время
ни разу не обновлялась.


Уже пришлось столкнуться со столькими случаями, в которых
фигурировала система автопилот, что давным-давно всем
автомобилистам нужно было сделать выводы. Да, сейчас
автопроизводители конкурируют друг с другом в создании беспилотного
транспорта и экологически чистого, тем самым зарождают моду и, так
называемый, тренд на подобный транспорт. Социальные сети заполнены
роликами, в которых электрокары самостоятельно гонят по автостраде.
Комментарии буквально взрывались от восторга зрителей, но всё
изменилось после того, как в этих же социальных сетях стали
появляться ролики, в которых автономный Tesla улетел под прицеп
разворачивающегося грузовика. Водитель умер, а экспертиза
установила, что авария произошла из-за того, что датчики ослепились
яркими лучами солнца. Компьютер сбился и не смог распознать то, что
у авто находится под носом.



После встал вопрос безопасности. На этот вопрос
смогли ответить в Париже. Эксперты заявили, что данный вид
транспорта будет безопасен только тогда, когда человек сможет найти
разницу между живым и искусственным интеллектом. Согласитесь, что
мы не всегда находим общий язык с соседом, либо с одним из членов
семьи, пусть им будет хоть собственная мать, а автопилот - это
искусственный интеллект. Понять его невозможно, хоть и создаётся он
человеком. Чтобы доработать полностью, нужно потерять, пожертвовать
и вложить.


Специалисты по искусственному интеллекту вообще сказали, что
весь корень зла заключается в неправильной логике автомобиля.
Эксперименты, которые проводили эксперты компаний Jaguar Land
Rover, а так же Google, говорят о том, что роботизированная машина,
которая ездит только по определённым правилам, может стать намного
опаснее, чем лихачи. Ведь иногда нарушение правил может спасти
кому-нибудь жизнь. Тут говорится про такие случаи, когда
автомобилист, видя препятствие на дороге, должен резко затормозить
и т.д. Водители контактируют друг с другом и придерживаются некого
джентльменского соглашения, а всё подобное электронному разуму
точно чуждо. Кстати, в Великобритании сегодня разработали целый
проект, который должен научить автопилот действовать
по-человечески. А вот удастся это или нет - вопрос.


Говорить о безопасности нужно, ведь количество смертельных
случаев увеличивается. Представьте, что на дорогах неожиданно
начали ремонтировать трубы, либо что-нибудь ещё, наверняка
компьютер со сложившейся дилеммой просто не справится. Так же, если
на дорогу выбежит ребёнок, а в электромобиле будет сидеть пять
человек, то система автопилота задавит малыша посчитав, что
причинить вред одному гуманнее, нежели пожертвовать 5-ми. Такое
поведение, если вы не знали, прописывается в программе. Сложно даже
представить сколько подобных аварий по всему миру происходит в
год.


Андерш Лие говорит, что для того, чтобы спасти людей от
автономных машин, принимаются кардинальные решения. В будущем
придётся исключить либо автономный транспорт, либо человека. Но
скорее всего эксперты склонятся ко второму. Сначала автомобили
научатся менять полосы движения и обруливать препятствия. А чуть
позже система научится видеть плохое настроение водителя.


Но ответственность снимать с человека так же не стоит. Все
прекрасно слышали о
страшных ДТП и не секрет, что система автопилот не может
контролировать ситуацию на дорогах целиком и полностью до такого,
чтобы человек мог отдав управление искусственному интеллекту,
спокойной смотреть фильм.


Очередная история, связанная со знаменитым автопилотом Tesla. Но сейчас, кстати, в ДТП виновна не система, а сам автомобилист, который понадеялся на высшие умы. И когда только водители поймут, что система автопилот - это вспомогательная система, которая может посодействовать и взять часть обязанностей на себя. Но нельзя себя ощущать так, словно вы находитесь в доме на колёсах, который едет сам, процесс контролируется системой, а водитель - барин, который может спокойно отдыхать. История случилась в США. Автомобилист ехал на своём электромобиле Tesla Model S. У него был включён режим полуавтоматического управления Autopilot. Водитель понадеялся на систему и решил отвлечься на просмотр фильма. Включил его на смартфоне и полностью отдал управление авто системе. Итак, в один момент, когда полицейский остановил служебный автомобиль на обочине для того, чтобы помочь сослуживцу, который попал в аварию на личном транспорте, произошло ещё одно происшествие. Та самая Tesla Model S врезалась на скорости в патрульный автомобиль, а он от удара врезался ещё в одну машину. Полицейские упали на землю, но, к счастью, все остались живы и здоровы. Конечно же виновный тут один - водитель электрокара. Он признался, что отвлёкся на фильм и совсем не смотрел на дорогу. В ходе расследования так же выяснилось, что на автомобиле была загружена самая первая версия системы Autopilot и она за всё время ни разу не обновлялась. Уже пришлось столкнуться со столькими случаями, в которых фигурировала система автопилот, что давным-давно всем автомобилистам нужно было сделать выводы. Да, сейчас автопроизводители конкурируют друг с другом в создании беспилотного транспорта и экологически чистого, тем самым зарождают моду и, так называемый, тренд на подобный транспорт. Социальные сети заполнены роликами, в которых электрокары самостоятельно гонят по автостраде. Комментарии буквально взрывались от восторга зрителей, но всё изменилось после того, как в этих же социальных сетях стали появляться ролики, в которых автономный Tesla улетел под прицеп разворачивающегося грузовика. Водитель умер, а экспертиза установила, что авария произошла из-за того, что датчики ослепились яркими лучами солнца. Компьютер сбился и не смог распознать то, что у авто находится под носом. После встал вопрос безопасности. На этот вопрос смогли ответить в Париже. Эксперты заявили, что данный вид транспорта будет безопасен только тогда, когда человек сможет найти разницу между живым и искусственным интеллектом. Согласитесь, что мы не всегда находим общий язык с соседом, либо с одним из членов семьи, пусть им будет хоть собственная мать, а автопилот - это искусственный интеллект. Понять его невозможно, хоть и создаётся он человеком. Чтобы доработать полностью, нужно потерять, пожертвовать и вложить. Специалисты по искусственному интеллекту вообще сказали, что весь корень зла заключается в неправильной логике автомобиля. Эксперименты, которые проводили эксперты компаний Jaguar Land Rover, а так же Google, говорят о том, что роботизированная машина, которая ездит только по определённым правилам, может стать намного опаснее, чем лихачи. Ведь иногда нарушение правил может спасти кому-нибудь жизнь. Тут говорится про такие случаи, когда автомобилист, видя препятствие на дороге, должен резко затормозить и т.д. Водители контактируют друг с другом и придерживаются некого джентльменского соглашения, а всё подобное электронному разуму точно чуждо. Кстати, в Великобритании сегодня разработали целый проект, который должен научить автопилот действовать по-человечески. А вот удастся это или нет - вопрос. Говорить о безопасности нужно, ведь количество смертельных случаев увеличивается. Представьте, что на дорогах неожиданно начали ремонтировать трубы, либо что-нибудь ещё, наверняка компьютер со сложившейся дилеммой просто не справится. Так же, если на дорогу выбежит ребёнок, а в электромобиле будет сидеть пять человек, то система автопилота задавит малыша посчитав, что причинить вред одному гуманнее, нежели пожертвовать 5-ми. Такое поведение, если вы не знали, прописывается в программе. Сложно даже представить сколько подобных аварий по всему миру происходит в год. Андерш Лие говорит, что для того, чтобы спасти людей от автономных машин, принимаются кардинальные решения. В будущем придётся исключить либо автономный транспорт, либо человека. Но скорее всего эксперты склонятся ко второму. Сначала автомобили научатся менять полосы движения и обруливать препятствия. А чуть позже система научится видеть плохое настроение водителя. Но ответственность снимать с человека так же не стоит. Все прекрасно слышали о страшных ДТП и не секрет, что система автопилот не может контролировать ситуацию на дорогах целиком и полностью до такого, чтобы человек мог отдав управление искусственному интеллекту, спокойной смотреть фильм.


Заметили ошЫбку
Выделите текст и нажмите Ctrl+Enter
Обсудить (0)

Top.Mail.Ru Яндекс.Метрика
Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика