L'intelligence artificielle (IA) est la solution qui permet l'apparition de la voiture autonome. Cependant elle rencontre de nombreuses limites. En effet, elle n'est pas capable de prendre des décisions par elle-même sans qu'on ne l'ait préalablement programmée.
Une voiture autonome compte plusieurs millions de lignes de codes. Malgré cela, l'IA doit s'exercer un certain temps afin de rencontrer le maximum de situations possibles et réagir de manière adaptée une fois mise en service.
En effet, l'IA doit déterminer si l'objet repéré par les capteurs est un véritable obstacle ou non afin d'arrêter la voiture.
Plusieurs réactions sont possibles :
présence d'un véritable obstacle (un piéton qui traverse par exemple). L'IA doit le considérer comme "positif", et donc ordonner à la voiture de s'arrêter.
Absence d'obstacle véritable (feuilles d'arbres sur la route). L'IA doit identifier l'objet comme "négatif" et la voiture peut continuer sa route.
Mais il existe des confusions, comme :
le faux négatif : l'IA pourrait le considérer le piéton qui traverse comme "négatif" et la voiture continuer sa route.
le faux positif : l'IA prendrait un objet banal, comme des feuilles volantes sur la route, pour un piéton, et ordonnerait à la voiture de s'arrêter, ce qui pourrait provoquer un accident avec les usagers de derrière.
Même si les taux de réussite de ces algorithmes sont élevés, il existera toujours un risque. En effet, comme l'homme, la fiabilité de la conduite autonome n'atteindra jamais les 100% même avec toutes les précautions prises et même si 90% des accidents sont dûs à des erreurs humaines.
Ainsi, nous pouvons citer l'exemple de l'accident causé par une voiture autonome (de la société Uber en mars 2018) : La voiture a bien détecté le piéton mais a pris la décision de l'ignorer. Le problème viendrait de la configuration du logiciel. négatif.
Donc la voiture autonome se doit encore d'améliorer l'analyse des données recueillies par les capteurs afin de prendre la bonne décision.