X-System Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Un truc que je pense parfois depuis j'étais petit mais c'est un truc dingue. Les autres gens n'y pensent pas que boire, manger et l'amour. En général, les informations restent toujours confidentielles. Les recherches sont toujours malades pour trouver les trucs que vous ne pouvez pas y penser. Surtout pour l'intelligence artificielle, les recherches veulent la trouver et la créer pour avoir l'argent comme l'habitude, par exemple entre Blu-Ray et HD-DVD et entre nVIDIA et ATI. C'est bien pour l'évolution des machines (ordinateurs, voitures, télévisions, etc...) du siècle, par exemple l'auto-pilote pour les voitures pour éviter les accidents. Mais là, imagine, des ingénieurs malades créent des processeurs d'intelligence artificielle pour faciliter à utiliser sans besoin avoir les manuels d'utilisateur. Par contre, si ces ingénieurs malades n'auront mal programmé un système pour les processeurs d'intelligence artificielle. Que seront-ils d'état ? Si vous me disez que c'est des films ou des rêves. Je dis que c'est oui mais ca sera possible dans les dizaines années, c'est comme pour la terre qui était plate... L'humain n'est pas parfaite. A vos claviers :) Lien vers le commentaire Partager sur d’autres sites More sharing options...
XZombi Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Ouf, quelqu'un peut traduire X-System Lien vers le commentaire Partager sur d’autres sites More sharing options...
lithium57 Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Ta bu avant d'écrire ce post ? G pas tout compris ....... Lien vers le commentaire Partager sur d’autres sites More sharing options...
D-Tune Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 L'humanité n'est pas parfaite plutôt... Ca me rappelle I-Robot, et les 4 lois... Lien vers le commentaire Partager sur d’autres sites More sharing options...
paulez Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 J'ai pas vraiment compris en quoi l'intelligence artificielle pouvait devenir dangereuse... Lien vers le commentaire Partager sur d’autres sites More sharing options...
X-System Posté(e) le 16 janvier 2005 Auteur Partager Posté(e) le 16 janvier 2005 Ouf, quelqu'un peut traduire X-System Si tu n'as pas compris ca veut dire que tu es une personne normale comme les autres qui ne pensent pas trop l'évolution des machines Lien vers le commentaire Partager sur d’autres sites More sharing options...
X-System Posté(e) le 16 janvier 2005 Auteur Partager Posté(e) le 16 janvier 2005 L'humanité n'est pas parfaite plutôt...Ca me rappelle I-Robot, et les 4 lois... Ah tu as compris ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
lithium57 Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Les 3 loi plutôt Les Trois Lois de la Robotique Première Loi Un robot ne peut blesser un être humain ni, par son inaction, permettre qu'un humain soit blessé. Deuxième Loi Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. Troisième Loi Un robot doit protéger sa propre existence aussi longtemps qu'une telle protection n'est pas en contradiction avec la Première et/ou la Deuxième Loi. Lien vers le commentaire Partager sur d’autres sites More sharing options...
D-Tune Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 4 lois... je vous le dis... mais c'est à vous de la chercher... Lien vers le commentaire Partager sur d’autres sites More sharing options...
lithium57 Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Si tu n'as pas compris ca veut dire que tu es une personne normale comme les autres qui ne pensent pas trop l'évolution des machines Si on comprend pas c parce que t'a pas écrit en francais !! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Krapace Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Pour qu'une intelligence soit capable d'apprendre il faut qu'elle soit capable de simuler les synapse et construire ses propres connection synaptique.Un peu comme un cluster qui s'agrandirait en puissance et taille de memoire Lien vers le commentaire Partager sur d’autres sites More sharing options...
D-Tune Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 4ème loi d'Asimov : Un robot ne doit pas causer de tort à l’Humanité ou, restant passif, laisser l’humanité subir un dommage. C'est la nuance humain/humanité qui est importante Lien vers le commentaire Partager sur d’autres sites More sharing options...
NilSanyas Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Si on comprend pas c parce que t'a pas écrit en francais !! Renseignes toi, X-System est sourd, du coup que tu puisse le lire c'est déjà bien Tu devrais mettre un lien dans ta signature X-System Lien vers le commentaire Partager sur d’autres sites More sharing options...
lebud Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Si on comprend pas c parce que t'a pas écrit en francais !! hum, il se permet de dire que tu n'écris pas en francais (pas de c cedille désolé) et il écrit c que. ouh le vilain smseur.... Lien vers le commentaire Partager sur d’autres sites More sharing options...
X-System Posté(e) le 16 janvier 2005 Auteur Partager Posté(e) le 16 janvier 2005 Tu devrais mettre un lien dans ta signature X-System Hmm je vais essayer dans l'instant... Lien vers le commentaire Partager sur d’autres sites More sharing options...
X-System Posté(e) le 16 janvier 2005 Auteur Partager Posté(e) le 16 janvier 2005 (pas de c cedille désolé) Je n'avais pas pensé Lien vers le commentaire Partager sur d’autres sites More sharing options...
X-System Posté(e) le 16 janvier 2005 Auteur Partager Posté(e) le 16 janvier 2005 Pour qu'une intelligence soit capable d'apprendre Exact ! Et aussi être capable de penser. Lien vers le commentaire Partager sur d’autres sites More sharing options...
X-System Posté(e) le 16 janvier 2005 Auteur Partager Posté(e) le 16 janvier 2005 Tu devrais mettre un lien dans ta signature X-System C'est mieux ? Par contre, ça ne marche pas pour la couleur Lien vers le commentaire Partager sur d’autres sites More sharing options...
KilMi Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Pour qu'elles commencent à réellement nous inquiéter, les intelligences artificielles doivent être dotées d'une conscience, d'une autonomie ; or de la main de l'homme, une conscience pour une machine est impossible, car il faudrait que la machine puisse apprendre de son gré par l'expérience de la vie (il faudrait donc qu'elle soit vivante) : ceci n'est logiquement pas plausible, car un humain n'a jamais fini l'apprentissage de la vie, et ne peut donc en intégrer une complète (la vie et l'évolution par expérience) car lui-même ne l'a pas vécu. Il faudrait que l'homme puisse intégrer "une âme" dans un réseau de circuits électriques . un coeur dans tous ces cores, des souvenirs dans tous ces octets de mémoire, et des sentiments dans le système d'explotation (car les "ERROR : W32 ...." on en a marre >_<). Mais si l'homme venait à y parvenir, alors son rêve deviendrait une arme à double tranchant, car l'homme en a toujours usé de son gré en ce qui les concerne (" oh y'a un problème ? bah je vais formater ....") : et qui dit vie dit également instinct de survie. Ca serait l'enfer ^^. Bref je pense que l'homme vis à vis du chemin qu'il a choisit quant à la science ne parviendra jamais à cette fin (on invente pas une âme dans des circuits électriques, Frankenstein n'éxiste pas). Mais c'est une bonne problématique que tu t'es posé ^^ Lien vers le commentaire Partager sur d’autres sites More sharing options...
X-System Posté(e) le 16 janvier 2005 Auteur Partager Posté(e) le 16 janvier 2005 Pour qu'elles commencent à réellement nous inquiéter, les intelligences artificielles doivent être dotées d'une conscience, d'une autonomie ; or de la main de l'homme, une conscience pour une machine est impossible, car il faudrait que la machine puisse apprendre de son gré par l'expérience de la vie (il faudrait donc qu'elle soit vivante) : ceci n'est logiquement pas plausible, car un humain n'a jamais fini l'apprentissage de la vie, et ne peut donc en intégrer une complète (la vie et l'évolution par expérience) car lui-même ne l'a pas vécu. Il faudrait que l'homme puisse intégrer "une âme" dans un réseau de circuits électriques . un coeur dans tous ces cores, des souvenirs dans tous ces octets de mémoire, et des sentiments dans le système d'explotation (car les "ERROR : W32 ...." on en a marre >_<). Mais si l'homme venait à y parvenir, alors son rêve deviendrait une arme à double tranchant, car l'homme en a toujours usé de son gré en ce qui les concerne (" oh y'a un problème ? bah je vais formater ....") : et qui dit vie dit également instinct de survie. Ca serait l'enfer ^^. Bref je pense que l'homme vis à vis du chemin qu'il a choisit quant à la science ne parviendra jamais à cette fin (on invente pas une âme dans des circuits électriques, Frankenstein n'éxiste pas). Mais c'est une bonne problématique que tu t'es posé ^^ Tu avais compris ce que j'ai écrit. Ton rédaction m'intéresse C'est important pour connaître les autres choses que "manger, boire et l'amour" ce que les gens n'y ont pas pensé sauf pour les ingénieurs malades... Ah oui je me rappelle bien. Des ingénieurs japonnais ou coréens ou chinois (je ne sais pas quel exactement) ont inventé un chien en robot qui peut sentir quand quelqu'un le touche et il peut "voir" les murs pour éviter "être maladroit" comme les animaux organiques Le rêve peut être réalisé... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mikeizbak Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Pour qu'elles commencent à réellement nous inquiéter, les intelligences artificielles doivent être dotées d'une conscience, d'une autonomie ; or de la main de l'homme, une conscience pour une machine est impossible, car il faudrait que la machine puisse apprendre de son gré par l'expérience de la vie (il faudrait donc qu'elle soit vivante) : ceci n'est logiquement pas plausible, car un humain n'a jamais fini l'apprentissage de la vie, et ne peut donc en intégrer une complète (la vie et l'évolution par expérience) car lui-même ne l'a pas vécu. Il faudrait que l'homme puisse intégrer "une âme" dans un réseau de circuits électriques . un coeur dans tous ces cores, des souvenirs dans tous ces octets de mémoire, et des sentiments dans le système d'explotation (car les "ERROR : W32 ...." on en a marre >_<). Mais si l'homme venait à y parvenir, alors son rêve deviendrait une arme à double tranchant, car l'homme en a toujours usé de son gré en ce qui les concerne (" oh y'a un problème ? bah je vais formater ....") : et qui dit vie dit également instinct de survie. Ca serait l'enfer ^^. Bref je pense que l'homme vis à vis du chemin qu'il a choisit quant à la science ne parviendra jamais à cette fin (on invente pas une âme dans des circuits électriques, Frankenstein n'éxiste pas). Mais c'est une bonne problématique que tu t'es posé ^^ détrompe-toi, le travail sur l'IA est justement d'intégrer cette capacité à apprendre dans les machines, et ce n'est pas un rêve ou une utopie je pense... apprendre ne veut pas dire comprendre, raisonner, ressentir, s'émouvoir... c'est l'apprentissage basique (mais par lequel l'espèce humaine, et même toute espèce animale peut-être a du passer) de la trilogie "if situation then reaction enchainée avec if situation précédente resolue then répeter réaction else trouver nouvelle réaction" ce genre d'algorithme simple commence à être mis en place il me semble... c'est un long chemin avant d'arriver à l'androïde humanoïde, mais ce dernier peut effectivement être au bout du chemin bien que dans l'immédiat je doute que ce soit le but... il faut juste ne pas faire le bond "intelligence artificielle" => "robot humanoïde raisonnant et doté de libre-arbitre"... faire le bond directement relève de la science-fiction... mais pas à pas, on ne peut prédire ce que sera demain enfin de toute façon l'homme n'a pas besoin d'inventer des robots doté de "trop" de libre-arbitre pour se nuire... il le fait très bien tout seul Lien vers le commentaire Partager sur d’autres sites More sharing options...
NilSanyas Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Si déjà apprendre pour les machines était égal à : - retenir - ne pas répéter les erreurs du passé - trouver une solution autre que celle qui a engendré l'erreur passé - se poser assez de questions différentes afin de "comprendre" ce qui l'entoure Ce sera déjà pas mal Quoique il y a des humains, on se demande s'ils le font Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mikeizbak Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Si déjà apprendre pour les machines était égal à :- retenir - ne pas répéter les erreurs du passé - trouver une solution autre que celle qui a engendré l'erreur passé - se poser assez de questions différentes afin de "comprendre" ce qui l'entoure Ce sera déjà pas mal Quoique il y a des humains, on se demande s'ils le font bin y'a des humains ils lisent pas les posts avant de répondre Lien vers le commentaire Partager sur d’autres sites More sharing options...
NilSanyas Posté(e) le 16 janvier 2005 Partager Posté(e) le 16 janvier 2005 Chut Lien vers le commentaire Partager sur d’autres sites More sharing options...
X-System Posté(e) le 17 janvier 2005 Auteur Partager Posté(e) le 17 janvier 2005 Nil Sanyas est mort par les machines ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.