Le célèbre écrivant de SF, Isaac Asimov, avait réalisé qu'il fallait 3 lois impérieuses pour gouverner la robotique. Il s'était ensuite complu à trouver leur faille pour rédiger de malicieuses nouvelles. Ces trois lois imposaient aux robots de, premièrement, protéger les humains, deuxièmement obéir aux ordres (sauf s'ils rentrent en contradiction avec la première règle), et troisièmement de préserver leur intégrité (sauf si cela rentrait en contradiction avec les deux premières règles).
Les robots autonomes ont fait leur apparition, tant dans le secteur militaire que dans le secteur civil (ex : la voiture sans pilote de Google). Pour l'instant, aucune loi ne régit cela et il devient urgent de le faire. D'après un article de « The Economist », en premier lieu, ces règles doivent déterminer la part de responsabilité de chacune des parties en cas d'accident (concepteur, programmateur, fabricant, opérateur, etc.) Deuxièmement, si des systèmes de nature éthique sont implémentés dans le robot, il faut qu'ils correspondent à ceux employés par les humains. Enfin, il faut rapidement une collaboration entre les experts en robotique, en éthique et en juridique pour mettre en forme ces règles de manière commune.

Source : Sur-la-Toile