Self-Driving Trucks Are Now Running Between Texas and California.

Spaceman Spiff

Well-known member
embarktruck-TA.jpg

If you live in Southern California and you’ve ordered one of those fancy new smart refrigerators in the past few weeks, it may have hitched a ride to you on a robotruck.

Since early October, autonomous trucks built and operated by the startup Embark have been hauling Frigidaire refrigerators 650 miles along the I-10 freeway, from a warehouse in El Paso, Texas, to a distribution center in Palm Springs, California. A human driver rides in the cab to monitor the computer chauffeur for now, but the ultimate goal of this (auto) pilot program is to dump the fleshbag and let the trucks rumble solo down the highway.

...

They’ve got some good arguments. First off, making a robot that can drive itself on the highway, where trucks spend nearly all their time, is relatively easy. You don’t have to account for pedestrians, cyclists, traffic lights, or other variables. The big rig just has to stay in its lane and keep a safe distance from fellow travelers.

Better yet, the need for autonomous trucks is very real: Trucks carry 70 percent of goods shipped around the US, but truckers are scarce. According to the American Trucking Associations, the industry is now short 50,000 drivers. As current drivers retire or quit, that number could hit 175,000 by 2024. Cut down the need for the human, and that shortage stops being a problem. And a self-driving truck isn't subject to rules that ban humans from spending more than 11 hours at a time behind the wheel.

Indeed, make a truck that doesn’t tire (or text), the thinking goes, and you save lives: In the US, more than 4,000 people die in crashes involving trucks every year, crashes that nearly always result from human error. That’s why the American Trucking Associations has embraced the new tech, recently issuing its first autonomous vehicle policy, calling for uniform federal laws that could help developers and researchers make automated and connected vehicles safer than humans. (The Teamsters are less enthused, and have pushed against the inclusion of commercial vehicles in coming federal legislation.)
https://www.wired.com/story/embark-self-driving-truck-deliveries/
 
but truckers are scarce…
They mean the job Suck.

I know 3 person who did their classe 1. Hype to take take the road.
Afther they face the condition and how Broche a Foin Freight Brokerage really are.
A lot of hours and shitty paid.

Now they do something else. Myself I always dream to be a trucker. Once I look how the industry is, I change my plan. I love the road I can drive for hour. I did Alma Montreal without stopping no problem.

I agree with the article we need Self driving truck. The golden age of trucking is long gone.
 
Le bout qui fait peur c'est quand ils disent que c'est facile sur l'autoroute parce que y'a pas de piétons etc... Ça veut dire que le truck peut pas faire face à un problème de façon autonome ? Quelqu'un qui veut se suicider ? Une dame au canard ? Une policier ? Une moto qui se plante devant un truck ? Et si une moto se plante devant le truck, que le motard est devant les roues, et que le camion a le choix entre se tasser pour éviter le motard et ramasser la soccer mom à sa droite ou écraser le motard à terre il choisit quoi ?

C'est bien beau en théorie, mais on est encore loin des voitures autonomes en pratique. Le gars qui supervise va rester là pour un boute, pis c'est quand même inquiétant parce que le gars qui supervise doit pas être super attentif et risque de pas avoir le temps de réagir en cas de pépin.
 
Le bout qui fait peur c'est quand ils disent que c'est facile sur l'autoroute parce que y'a pas de piétons etc... Ça veut dire que le truck peut pas faire face à un problème de façon autonome ? Quelqu'un qui veut se suicider ? Une dame au canard ? Une policier ? Une moto qui se plante devant un truck ? Et si une moto se plante devant le truck, que le motard est devant les roues, et que le camion a le choix entre se tasser pour éviter le motard et ramasser la soccer mom à sa droite ou écraser le motard à terre il choisit quoi ?

C'est bien beau en théorie, mais on est encore loin des voitures autonomes en pratique. Le gars qui supervise va rester là pour un boute, pis c'est quand même inquiétant parce que le gars qui supervise doit pas être super attentif et risque de pas avoir le temps de réagir en cas de pépin.

moi je lui ferais faire le choix d'une facon aléatoire, comme avec un vrai chauffeur. Personne n'a la meme réaction devant un evenement
 
Le bout qui fait peur c'est quand ils disent que c'est facile sur l'autoroute parce que y'a pas de piétons etc... Ça veut dire que le truck peut pas faire face à un problème de façon autonome ? Quelqu'un qui veut se suicider ? Une dame au canard ? Une policier ? Une moto qui se plante devant un truck ? Et si une moto se plante devant le truck, que le motard est devant les roues, et que le camion a le choix entre se tasser pour éviter le motard et ramasser la soccer mom à sa droite ou écraser le motard à terre il choisit quoi ?

C'est bien beau en théorie, mais on est encore loin des voitures autonomes en pratique. Le gars qui supervise va rester là pour un boute, pis c'est quand même inquiétant parce que le gars qui supervise doit pas être super attentif et risque de pas avoir le temps de réagir en cas de pépin.

Les camions peuvent facilement éviter d'emboutir un véhicule immobilisé ou un obstacle sur l'autoroute. La majorité des cruise control intelligents dans les voitures de luxe le font déjà. C'est quand même facile parce qu'il n'y a pas trop d'objets à scanner et les règles sont plus simples.

Le problème en ville c'est que les systèmes ont de la misère à dealer avec des piétons qui peuvent décider de traverser la rue sans regarder, des automobilistes qui vont ouvrir leurs portes sans regarder, les cyclistes qui font pas leurs stops, etc... Il y a beaucoup plus d'objets imprévisibles comparativement aux autoroutes.
 
Ordit va prendre le choix qui est programmé avec le plus de chance de réussite.

Dans la plupart des situations Freinage urgence va être le meilleur choix.

Exemple sur une avenue. Un enfant se met à courir sur la route.
*Break*

Mais un chauffeur d'expérience sait que ses tires sont presque finies ou ses freins sont dus.
Par reflex il va prévoir qu’il ne freinera jamais à temps. Probablement faire une manœuvre en prennent compte des 100000 détails de son environnement. Un ordi est très fort à calculer une chose très vite.

Un cerveau humain est très performant à faire des liens. À spéculer des conséquences avec un très grand nombre de variables. Relativement rapidement.

Il y a déjà des tracteurs de ferme qui conduit tout seule. La job est routinière est environnement très stable et contrôlé.

Un self-Driving Truck va en arracher à conduire en Inde.
 
Les camions peuvent facilement éviter d'emboutir un véhicule immobilisé ou un obstacle sur l'autoroute. La majorité des cruise control intelligents dans les voitures de luxe le font déjà. C'est quand même facile parce qu'il n'y a pas trop d'objets à scanner et les règles sont plus simples.

Le problème en ville c'est que les systèmes ont de la misère à dealer avec des piétons qui peuvent décider de traverser la rue sans regarder, des automobilistes qui vont ouvrir leurs portes sans regarder, les cyclistes qui font pas leurs stops, etc... Il y a beaucoup plus d'objets imprévisibles comparativement aux autoroutes.

Oui mais je répète mon dilemme :

Une voiture perd le contrôle l'hiver devant une van.

La van à trois choix :
- freiner
- éviter à gauche
- éviter à droite

Un chauffeur dans la vraie vie va choisir selon son feeling, comme il le peut. L'erreur est humaine et on peut difficilement blâmer quelqu'un dans cette situation.

Mais un ordinateur ? T'imagines ce que ça implique ?

Le seul moment ou on va légitimement pouvoir laisser un ordinateur prendre une décision c'est quand on va en être au point que l'ordinateur va pouvoir prendre la MEILLEURE décision pour la situation, surpasser un conducteur humain, de façon à ce que personne n'ait rien à redire.

Exemple : auto dérape en face. Camion calcule distance de freinage et trouve qu'il ne peut pas freiner. Voit à droite qu'il y a une auto, à gauche une camionnette. Calcule que la camionnette à nettement plus de change vu son angle et ses coussins gonflables. Va à gauche.


Mais reste le dilemme humain : le camion a pas le choix de ramasser quelqu'un. Il choisit qui entre 1) le couple avec deux enfants 2) la femme enceinte 3) les trois ados


Je sors pas ça de mon chapeau, c'est les dilemmes dont font face google et autres géants de l'informatique face à la programmation de leurs véhicules autonomes. On a besoin d'une vraie AI avant d'en arriver là, pas juste un programme qui *semble* intelligent au premier abord, mais qui n'est fait que pour faire une tâche bien précise et rien d'autre.

Je suis étudiant en génie logiciel, un de nos profs fait son doctorat en AI à l'UdeM et connait très bien Yoshua Bengio et c'est un sujet qui revient souvent dans le cours, c'est pas moi qui invente ça les problèmes de dilemme et de choix.
 
Penses-tu sérieusement que le monde a le temps de résoudre un dilemme éthique avant une collision? Aucun conducteur n'a le temps d'identifier les passagers et de juger qui mérite le plus de survivre.

De plus, la grande majorité des conducteurs ne savent pas comment réagir en cas d'urgence et vont soit barrer les roues (l'ABS va embarquer et augmenter la distance de freinage) ou soit donner un coup de volant en panique.
 
Oui mais je répète mon dilemme :

Une voiture perd le contrôle l'hiver devant une van.

La van à trois choix :
- freiner
- éviter à gauche
- éviter à droite

Un chauffeur dans la vraie vie va choisir selon son feeling, comme il le peut. L'erreur est humaine et on peut difficilement blâmer quelqu'un dans cette situation.

Mais un ordinateur ? T'imagines ce que ça implique ?

Le seul moment ou on va légitimement pouvoir laisser un ordinateur prendre une décision c'est quand on va en être au point que l'ordinateur va pouvoir prendre la MEILLEURE décision pour la situation, surpasser un conducteur humain, de façon à ce que personne n'ait rien à redire.

Exemple : auto dérape en face. Camion calcule distance de freinage et trouve qu'il ne peut pas freiner. Voit à droite qu'il y a une auto, à gauche une camionnette. Calcule que la camionnette à nettement plus de change vu son angle et ses coussins gonflables. Va à gauche.


Mais reste le dilemme humain : le camion a pas le choix de ramasser quelqu'un. Il choisit qui entre 1) le couple avec deux enfants 2) la femme enceinte 3) les trois ados


Je sors pas ça de mon chapeau, c'est les dilemmes dont font face google et autres géants de l'informatique face à la programmation de leurs véhicules autonomes. On a besoin d'une vraie AI avant d'en arriver là, pas juste un programme qui *semble* intelligent au premier abord, mais qui n'est fait que pour faire une tâche bien précise et rien d'autre.

Je suis étudiant en génie logiciel, un de nos profs fait son doctorat en AI à l'UdeM et connait très bien Yoshua Bengio et c'est un sujet qui revient souvent dans le cours, c'est pas moi qui invente ça les problèmes de dilemme et de choix.

La voiture intelligente est déjà plus rapide que toi anyway. Pendant que toi tu de demande lequel tu va frapper la voiture intelligente freine déjà depuis 1 seconde et arrêtera donc 10-20-30-40-50-100 pieds avant toi car toi tu "penses" et pas la machine.

La machine voie un problème, BAM elle réagis. Aucun délais autre que le "compute power" mais avec le matos qu'on a aujourd'hui même une puce de cellulaire pourrait probablement self-drive une voiture.
 
Aussi, le véhicule autonome n'a aucune impatience, il dépasse jamais les limites de vitesses et roule surement en deçà de ces dernières quand c'est nécessaire. Il fait pas de dépassements inutiles, il a jamais les facultés affaiblit par le manque de sommeil, la journée de 14h ou les médicaments/drogues. Il répond pas non plus au téléphone ou browse MR en conduisant. Il mets aussi systématiquement ses clignotants et vérifie ses angles morts.

Le truck intelligent voit dans le spectre infrarouge la nuit et à travers la neige grâce au radar/lidar... d'ailleurs la quantité d'équipement de vision embarquée peut surement être bien plus grande sur un semi-truck qu'une auto en plus d'être installé pas mal plus haut.

De temps en temps, un trucker se claque une crise cardiaque en conduisant et emporte avec lui d'autres personnes, de la même façon, peut-être, truck peut "bugger" et tuer du monde, c'est la vie, shit happens. Même si c'est moi sur ma moto.

L'automatisation de la conduite est inévitable.
 
Penses-tu sérieusement que le monde a le temps de résoudre un dilemme éthique avant une collision? Aucun conducteur n'a le temps d'identifier les passagers et de juger qui mérite le plus de survivre.

De plus, la grande majorité des conducteurs ne savent pas comment réagir en cas d'urgence et vont soit barrer les roues (l'ABS va embarquer et augmenter la distance de freinage) ou soit donner un coup de volant en panique.

J'ai jamais parlé de ça. Ce que je dis c'est que ça peux pas être légal un truck qui décide aléatoirement qui il va ramasser s'il a pas le choix. Va falloir que ça soit très clairement balisé.


Googlez self-driving car ethics. Toutes les grandes entreprises et université cherchent des solutions.

La clé ici c'est qu'une machine ne peut pas décider qui vie et qui meurt.

Imagine une innocente comme la dame aux canards qui arrête sur l'autoroute et un truck intelligent qui décide de tuer ta femme en swervant dans l'autre voie. Tu dirais quoi ? L'erreur est humaine ?
 
J'ai jamais parlé de ça. Ce que je dis c'est que ça peux pas être légal un truck qui décide aléatoirement qui il va ramasser s'il a pas le choix. Va falloir que ça soit très clairement balisé.


Googlez self-driving car ethics. Toutes les grandes entreprises et université cherchent des solutions.

La clé ici c'est qu'une machine ne peut pas décider qui vie et qui meurt.

Imagine une innocente comme la dame aux canards qui arrête sur l'autoroute et un truck intelligent qui décide de tuer ta femme en swervant dans l'autre voie. Tu dirais quoi ? L'erreur est humaine ?

Le camion aurait arrêter derrière la femme au canard. C'est les autres derrière qui aurait réagis moins vite que le truck self-drive. Le truck ne peut pas être en excès de vitesse et va toujours suivre à une distance sécuritaire. Même si la dame au canard freine pour rien le camion va s'arrêter derrière.
 
Aussi, le véhicule autonome n'a aucune impatience, il dépasse jamais les limites de vitesses et roule surement en deçà de ces dernières quand c'est nécessaire. Il fait pas de dépassements inutiles, il a jamais les facultés affaiblit par le manque de sommeil, la journée de 14h ou les médicaments/drogues. Il répond pas non plus au téléphone ou browse MR en conduisant. Il mets aussi systématiquement ses clignotants et vérifie ses angles morts.

Le truck intelligent voit dans le spectre infrarouge la nuit et à travers la neige grâce au radar/lidar... d'ailleurs la quantité d'équipement de vision embarquée peut surement être bien plus grande sur un semi-truck qu'une auto en plus d'être installé pas mal plus haut.

De temps en temps, un trucker se claque une crise cardiaque en conduisant et emporte avec lui d'autres personnes, de la même façon, peut-être, truck peut "bugger" et tuer du monde, c'est la vie, shit happens. Même si c'est moi sur ma moto.

L'automatisation de la conduite est inévitable.

Sauf que ça pourra jamais être légal une machine automatique qui peut tuer du monde. Ça passe avec des humains parce qu'on a pas le choix, mais personne va légaliser des machines qui peuvent décider qui tuer et à la première erreur la compagnie fait faillite.
 
Sauf que ça pourra jamais être légal une machine automatique qui peut tuer du monde. Ça passe avec des humains parce qu'on a pas le choix, mais personne va légaliser des machines qui peuvent décider qui tuer et à la première erreur la compagnie fait faillite.

Ya des tonnes de "machines" qui peuvent déjà tuer du monde quand elles s'emballent. Ça existe dans l'aéronautique, ça existe dans l’aérospatiale, le militaire et même le milieu hospitalier (va demander à un inhalothérapeute comment leur job est rendu passionnante à regarder un robot tout faire pour garder en vie un patient).

Je minimise mais j'ai aussi lu sur les questions d'éthique à ce sujet. Au final, j'en suis venu à la conclusion que le véhicule autonome va être pas mal plus sécuritaire en général que le conducteur humain et que, peut-être, ce qui serait pas éthique, ce serait de justement s'en passer et de continué à regarder du monde se faire enculastrer par des conducteurs distraits.

Aussi, l'exemple de la dame aux canards va dans le sens contraire de ce que tu dis d'une certaine façon. Le conducteur de la moto roulait plus vite que la limite permise dans une zone de construction, avait un passager et je serais prête à parier qu'il a merder son freinage d'urgence (comme comme la grande majorités des motocycliste aurait fait d’ailleurs...) avant d'emboutir l'arrière de l'auto. Je suppose qu'un semi autonome aurait ajusté sa vitesse en conséquence et peut-être évité l'accident sans changer de voix.
 
tres bon exemple Ronin. Je suis d’accord.

Là il a l’autre question. Quoi faire avec les chômeurs?
Le transport est un des plus gros employeurs en Amérique.
 
tres bon exemple Ronin. Je suis d’accord.

Là il a l’autre question. Quoi faire avec les chômeurs?
Le transport est un des plus gros employeurs en Amérique.

Leur donner les job que les immigré y'eux ont volé
 
Back
Top