Programmer les robots pour protéger des humains ?
-
Des chercheurs ont publié un article expliquant comment ils ont créé une nouvelle infrastructure logicielle qui encadre l’action de l’intelligence artificielle (Nov. 74aH*/ 2019).
Une équipe de chercheurs des universités du Massachusetts, à Amhrest, et de Stanford ont créé une nouvelle approche pour « empêcher le comportement indésirable des machines intelligentes ». (Image d’illustration par Gerd Altmann )
Le titre de l’article publié est par ailleurs inspiré des Trois lois de la robotique d’Isaac Asimov.
Les scientifiques ont ainsi créé un framework, une infrastructure logicielle dans le but d’empêcher le biais et les erreurs dans le développement de l’intelligence artificielle (IA).
Programmer les robots pour éviter les erreurs dans les systèmes automatisés
L’IA a fait de grands bonds en avant avec notamment le deep learning, ou apprentissage profond, ce qui permet d’atteindre des taux d’erreurs assez faibles sur de nombreuses tâches comme la reconnaissance faciale. Cependant, il existe des situations où aucune erreur n’est tolérée. Les systèmes actuels mettent la responsabilité sur l’utilisateur final, qui doit régler le niveau de sensibilité, ce qui influe sur le taux et le type d’erreurs sans nécessairement en comprendre le fonctionnement.
-
Lire aussi :
- 74aH* : Le 6 août, date anniversaire de l’explosion de la bombe atomique sur Hiroshima marque l’entrée de l’Humanité dans l’âge de la révélation. C’est aussi le début du calendrier raélien : depuis le 6 août 2019, nous sommes en 74aH, 74 après Hiroshima. (Lire plus à ce propos)
Un algorithme pour éviter que les robots ne s’en prennent aux humains