fbzn Posté(e) le 13 mars 2009 Partager Posté(e) le 13 mars 2009 Je vous propose de prendre connaissance de cette news, qui bien que "d'anticipation", n'en pose pas moins certaines questions: http://fr.news.yahoo.com/64/20090313/twl-q...li-acb1c83.html Lien originel: http://www.lemonde.fr/planete/article/2009...tor=AL-32280184 Quel sens moral pour les robots militaires ?Année 2018. Les familles d'un soldat et d'un sous-officier américains reçoivent 100 millions de dollars de dommages et intérêts de la firme Milibots Inc. Les deux militaires, pris comme boucliers humains par des insurgés afghans qui venaient de s'emparer de leur batterie mobile de missiles, ont été "sacrifiés" par le robot autonome JCN 3000 chargé de la protection du convoi. En détruisant la batterie et ses servants, le robot a voulu parer un risque imminent d'utilisation de ces armes, susceptible d'occasionner un plus grand nombre de morts dans le camp allié, a tenté de faire valoir Milibots Inc, lorsque l'affaire a été ébruitée - avant de sortir son chéquier. 2020. Le Tribunal pénal international fait comparaître un "robot casque bleu" Swissor B12, dans une affaire de crime de guerre en Géorgie. C'est le contenu de sa boîte noire qui intéresse le tribunal. La présence de ce témoin mécanique n'a semble-t-il pas empêché ses camarades de section humains de se venger sur des civils d'une embuscade ayant fait des morts dans leurs rangs près d'un village frontalier russe. Science-fiction ? Pas tout à fait. Ces deux exemples illustrent des scénarios susceptibles de se produire dans un proche avenir, à mesure que les robots autonomes se multiplieront dans les zones de conflit. Seront-ils dotés d'un sens moral pour prendre les bonnes décisions ? Rendront-ils les guerres moins meurtrières ? Le sens du sacrifice de ces "consommables" réduira-t-il les pertes humaines ? En cas de dérapage, qui sera responsable - leur constructeur, l'armée qui les a enrôlés, les robots eux-mêmes ? Mais alors, comment punir une machine ? Les états-majors commencent à se soucier des enjeux éthiques qui se profilent. En témoigne la publication, fin décembre 2008, d'un rapport intitulé "Robots militaires autonomes : risques, éthique, design", commandé par l'US Navy. Convoquant Kant, Asimov, la théorie de l'évolution mais aussi les grands concepts de la polémologie (la science de la guerre), ce document passionnant a été rédigé par des chercheurs du département Ethique et technologies émergentes de l'université polytechnique de Californie. Ils invitent in fine les militaires à "se confronter, aussi en avance que possible" aux nouvelles questions éthiques et sociales soulevées par les robots autonomes - "en particulier, avant que des peurs irrationnelles dans le public ou que des accidents causés par la robotique militaire n'enrayent le progrès de la recherche et les intérêts de sécurité nationale". Les robots militaires sont déjà là, dans les airs, sur terre et même sous les eaux. Ils vont se multiplier : en 2000, le Congrès américain a voté une loi prévoyant qu'en 2010, un tiers des bombardiers fonctionneraient sans pilote. Et qu'en 2015, la même proportion des véhicules de combat au sol fonctionnera sans humain. Le rôle de ces robots est de remplacer Homo sapiens dans les "boulots ennuyeux, sales et dangereux", selon le département de la défense américain. En 2007, on estimait ainsi que les 5 000 robots déployés en Irak et en Afghanistan avaient neutralisé 10 000 "engins explosifs improvisés". Pour l'heure, les automates militaires ne sont pas entièrement autonomes. La décision d'engager le feu revient encore à un humain. Mais ce n'est que temporaire. Le roboticien Ronald Arkin (Georgia Institute of Technology) note ainsi que sur des systèmes de surveillance armée de zones frontalières, en Corée du Sud et en Israël, l'option "télécommande humaine" peut être débrayée. A mesure que les multiples systèmes déployés sur un champ de bataille communiqueront entre eux, l'"homme dans la boucle" aura plus de mal à évaluer la situation qu'un système autonome, assure-t-il. Le chercheur américain estime même que "les robots pourraient agir de façon plus éthique sur le champ de bataille que des humains" : un rapport de 2006 du ministère de la santé américain n'a-t-il pas montré que seulement 47 % des soldats et 38 % des marines engagés en Irak considéraient que les non-combattants devaient être traités avec dignité et respect ? Tout le monde ne partage pas cette confiance dans les robots militaires. Pour Raja Chatila, directeur de recherche au Laboratoire d'analyse et d'architecture des systèmes (CNRS, Toulouse), "on est encore très loin de pouvoir garantir qu'ils agiront sur une base bien informée". A chaque étape du processus - détection, identification, interprétation, prise de décision, action - "l'incertitude peut se propager", note le chercheur. Dans des milieux ouverts, il sera indispensable de concevoir des systèmes d'apprentissage, les ingénieurs ne pouvant anticiper toutes les situations. Or si le robot apprend par lui-même, il devient quasi-impossible d'anticiper ses réactions, son comportement. "Ce degré supplémentaire d'incertitude constitue une vraie difficulté", estime Raja Chatila. A supposer qu'on parvienne à formaliser les bases d'un sens moral et à les implanter dans un automate, celui-ci risque de se trouver confronté à des conflits insolubles : doit-on sacrifier un individu pour en sauver des centaines, par exemple ? Ces arcanes ont été explorés avec brio par le romancier Isaac Asimov et ses lois de la robotique. Mais Ron Arkin convient que celles-ci sont d'un piètre secours dans un contexte guerrier. Le but n'est plus de faire en sorte qu'humains et robots cohabitent pacifiquement. Mais au contraire, comme le note drôlement le rapport à l'US Navy, "le sens moral ainsi développé doit pouvoir amener les robots à tuer les bons humains (les ennemis) et pas les mauvais (les alliés)". A cette condition, lit-on encore dans le rapport, "avoir des robots combattants à nos côtés réduira dramatiquement le nombre de nos morts. Cette arme pourrait devenir suffisamment redoutée pour que la guerre cesse in fine d'être une option désirable pour résoudre les divergences entre Etats-nations". Raja Chatila n'est pas convaincu. "Longtemps encore, le "robot moral" ne sera guère qu'un moyen d'enregistrement, susceptible d'éviter les dérapages. Comme ces caméras introduites dans les salles d'interrogatoires." Mais il rappelle que les robots autonomes civils, à qui l'on prévoit déjà de confier des enfants, des malades ou des personnes âgées, posent eux aussi des questions éthiques... Hervé Morin Au delà de ça, Je vous rappelle que la réalité est quand même à court terme (2010-2015) d'avoir énormément de drônes/ robots militaires. Si les premiers restent radicommandés (donc un opérateur humain à distance), la finalité reste quand même d'obtenir un robot capable de prendre une décision face à une situation. Même sans aller jusqu'à imaginer un Terminator, on pourrait simplement penser à un dispositif patrouilleur dans l'enceinte d'une base militaire, qui par ses capteurs pourrait faire feu sur une personne tentant de rentrer dans l'enceinte de la base. Je vous rappelle aussi que le "civil" compte se doter de drônes, et qu'on pense aussi à les armer: dispositif Tazer/ filets pour attraper quelqu'un. Encore une fois, que se passera-t'il quand on passera du drône armé radiocommandé au drône devenu robot autonome dans sa prise de décision mais toujours armé... Il est évident à mes yeux, que même en 2020, on n'aura pas de robot "marchant/ agissant" même de manière restreinte comme un être humain, et je vois mal des robots en train de patrouiller de manière régulière. Néanmoins, au niveau militaire, des robots "de garde" existeront sûrement. Bref, que pensez-vous de tout ça ? Inutile d'aller chercher du Terminator, à mon avis il s'écoulera de très nombreuses (dizaines d')années avant qu'on soit capable de créer un tel être. Par contre un p'tit robot sur chenilles avec des capteurs, dont la seule "mission" est de défourailler à tout va après sommation.. pourquoi pas. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Gmail Posté(e) le 13 mars 2009 Partager Posté(e) le 13 mars 2009 Moi j'attends de savoir ce qui se passe dans la zone 51 :o car ça se trouve ce genre "d'humanoïdes" existe déjà ou en tout cas est à un stade très avancé et une poignée de gens le savent, alors que tout porte a croire que la zone 51 est la pour ce genre de chose Lien vers le commentaire Partager sur d’autres sites More sharing options...
fbzn Posté(e) le 13 mars 2009 Auteur Partager Posté(e) le 13 mars 2009 Beaucoup d'INpactiens ne sont pas humains. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Amnesiac Posté(e) le 13 mars 2009 Partager Posté(e) le 13 mars 2009 Ça se saurait si y'en avait. Lien vers le commentaire Partager sur d’autres sites More sharing options...
lorinc Posté(e) le 13 mars 2009 Partager Posté(e) le 13 mars 2009 Petit rappel de ce qui marche aujourd'hui : * Patrouille autonome en environnement intérieur : ok * Patrouille autonome en environnement urbain : ok * Patrouille autonome en environnement naturel : non * Découverte et repérage autonome en intérieur : ok * Découverte et repérage autonome en environnement urbain courte distance : ok * Découverte et repérage autonome en environnement urbain grande distance : non * Découverte et repérage autonome en environnement naturelle : non * Détection de personne : ok * Identification de personnes : non (mais bien avancé) * Détection de conflit : ok (manque vraiment pas grand chose. La police de Budapest avait un partenariat avec un labo pour développer un système de détection d'incident urbain en auto y a de ça trois-quatre ans, j'imagine que ça c'est amélioré depuis) Je vous laisse imaginer ce qui manque pour faire des "terminators" (sans doute moins antropomorphes, c'est moins idiot). Après, la machine fait ce qu'on lui dit de faire, et uniquement ce qu'on lui dit de faire (que ce soit directement du type "si condition, alors action", ou bien par apprentissage). Et pour ça la question se pose bien avant celle du terminator. Est-ce qu'on peut laisser une machine conduire une voiture ? (C'est presqu'entièrement au point, manque pas grand chose) Si la voiture autonome refuse de s'arrêter devant la mémé qui traverse, qui est responsable ? Le constructeur ? L'acheteur ? La voiture ("hop, à la fourrière à perpetuité pour homicide volontaire, titine") ? Et puis est-ce que c'est mal ? Si statistiquement, les voitures autonomes écrasent moins de petites vieilles que les humains bourrés, est-ce vraiment dérangeant ? Est-ce dérangeant parce que notre bon sens nous dit qu'il n'y a pas de coupable, et que pourtant notre soif de justice cherche toujours un coupable ? Les machines n'ont pas conscience des conséquences de leurs actes. Un peu comme la foure, ou bien un arbre qui tu tombe sur le coin de la gueule. Dans le cas de l'arbre, on peut arguer qu'il n'a pas été mis là avec la volonté de nuire à quelqu'un, comme la voiture autonome, et contrairement au bot de patrouille qui a ordre de riposter à toute attaque. M'enfin dans le cas où le bot n'est pas là pour nuire (y avait un article sur /. il y a quelques temps sur un robot à faire des câlins qui à éclaté le nounours qu'il avait dans les bras à cause d'un trop plein d'amour mal calibré...), ça peut aussi être le cas chez les militaires. Après, évidemment, tout ce qui est mis à un endroit avec la volonté de nuire (que ce soit un homme ou une machine), c'est idiot, ça sert juste à faire chier le monde, c'est contre-productif et ça me casse gravement les couilles. Mais c'est une position personnelle. Lien vers le commentaire Partager sur d’autres sites More sharing options...
fbzn Posté(e) le 17 mars 2009 Auteur Partager Posté(e) le 17 mars 2009 http://news.bbc.co.uk/2/hi/science/nature/7946780.stm (10 secondes de pub avant). C'est pas encore ça, mais c'est dérangeant. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.