Egalité et Réconciliation
https://www.egaliteetreconciliation.fr/
 
A A A
imprimer

Et si l’intelligence artificielle était déjà hors de contrôle ?

Des scientifiques alertent : les algorithmes sont devenus si complexes que certaines machines prennent des décisions que l’humain ne parvient plus à expliquer. Les risques de dérives sont importants. Mais il n’est pas trop tard pour agir.

 

L’IA, ce sont des algorithmes extrêmement puissants, capables de travailler avec des bases de données gigantesques pour apprendre, et prendre ensuite les décisions les plus pertinentes possible. Et si la créature échappait au créateur ?

C’est l’un des cauchemars des ingénieurs de la NASA. L’un de leur rovers à six roues explore la surface de Mars en mode autonome. Soudain, le véhicule se dirige vers la droite, longe une falaise, marque un temps d’arrêt puis se jette dans le vide et s’écrase 400 mètres plus bas. À 70 millions de kilomètres de là, à Houston, les spécialistes de la NASA sont effondrés. Plus rien ne peut sauver une mission qui aura coûté plus d’un milliard de dollars. Le rover, équipé d’un système d’intelligence artificielle, a pris des décisions qu’ils ne peuvent pas expliquer.

La NASA, qui utilise l’intelligence artificielle (IA) tant pour piloter ses robots que pour analyser des millions de photos de l’espace, tente de garder le contrôle de cette technologie. Mais le défi est immense. Et de plus en plus de scientifiques et d’ingénieurs s’alarment : aujourd’hui déjà, il y a un risque que l’IA échappe à leur contrôle. Et que personne ne soit capable d’expliquer comment un système est parvenu à une décision.

 

« S’en préoccuper immédiatement »

« On ne parle pas forcément de robots tueurs qui se retourneraient contre les humains et les extermineraient. On parle de technologies qui sont installées dans des voitures, des smartphones ou des ordinateurs. C’est extrêmement concret et il faut s’en préoccuper immédiatement », avertit Rachid Guerraoui, directeur du Laboratoire de programmation distribuée de l’EPFL.

Il y a un mois, le chercheur, avec trois membres de son laboratoire, présentait leur dernière trouvaille à la conférence « Neural Information Processing Systems » de Long Beach, en Californie – la réunion la plus pointue sur l’IA. Devant notamment des ingénieurs de la NASA, ils ont dévoilé une solution pour tenter de garder le contrôle sur cette technologie.

[...]

« Aujourd’hui déjà, des systèmes d’IA détectent lorsqu’un humain tente de modifier leur comportement et font parfois tout pour rejeter cette intervention et la contourner si elle entre en conflit avec l’objectif initial de l’IA. Il faut agir de manière subtile et rapide pour que l’IA croie qu’elle prend elle-même toutes les décisions. Et ensuite effacer les traces d’intervention humaine », poursuit le professeur.

Ce qui semble de la pure science-fiction est donc réalité. Des systèmes d’IA prennent des décisions propres en se nourrissant de bases de données gigantesques. Le phénomène est massif. Mais pas totalement nouveau. « L’intelligence artificielle est un terme à la mode, mais elle trouve ses racines dans les années 1960 déjà avec les systèmes experts. Aujourd’hui, la puissance de calcul, les capacités de mémoire et les masses de données amplifient de manière extraordinaire ce phénomène », détaille Hervé Bourlard, directeur de l’institut de recherche Idiap de Martigny.

 

Neurones artificiels

Actuellement, ce sont des réseaux de plus en plus gros de neurones artificiels qui sont créés. De quoi s’agit-il ?

« L’idée est de tenter de répliquer, de manière informatique, le fonctionnement du cerveau, poursuit Hervé Bourlard. Attention, nous n’allons jamais pouvoir copier le système de milliards de neurones du cerveau, qui est d’une incroyable complexité. Mais nous sommes déjà capables de créer des réseaux de neurones artificiels dotés de plusieurs couches hiérarchiques, via des systèmes de calculs très compliqués. »

Ces neurones ont été entraînés à prendre de bonnes décisions sur la base de bases de données dont ils se nourrissent en permanence – on appelle cela le « machine learning ». Ces neurones sont aussi capables de s’entraider en cas de problème.

Lire l’article entier sur letemps.ch

Échapper aux manipulations transhumanistes
avec Kontre Kulture :

Pour tout savoir du transhumanisme, voir sur E&R :

 






Alerter

50 Commentaires

AVERTISSEMENT !

Eu égard au climat délétère actuel, nous ne validerons plus aucun commentaire ne respectant pas de manière stricte la charte E&R :

- Aucun message à caractère raciste ou contrevenant à la loi
- Aucun appel à la violence ou à la haine, ni d'insultes
- Commentaire rédigé en bon français et sans fautes d'orthographe

Quoi qu'il advienne, les modérateurs n'auront en aucune manière à justifier leurs décisions.

Tous les commentaires appartiennent à leurs auteurs respectifs et ne sauraient engager la responsabilité de l'association Egalité & Réconciliation ou ses représentants.

Suivre les commentaires sur cet article

Afficher les commentaires précédents
  • #1876727

    Ce que je suis pressé de voir, c’est la réaction outrée des ingénieurs qui auront pondu des robots tueurs hors de contrôle et/ou manipulés à des fins de guerre.

    La même réaction que pour la bombe atomique, "Si j’avais su que mes travaux seraient utilisés pour ça, je ne l’aurais pas fait". And my ass, it is chicken ?

     

    Répondre à ce message

  • Plus d’élec Et c’est réglé

     

    Répondre à ce message

  • #1876730

    Je comprends pas bien le foin que l’on fait sur la super méga-giga géniale IA.
    Ne suffit-il pas de couper le courant pour que la Déesse IA ferme son clapet ? Ou n’ai-je rien compris au film ?
    N’est-il pas halucinant que l’on ne craigne pas (plus !) le Créateur de toute chose, par contre, on se prend à avoir peur de l’IA.
    Est-ce moi qui suis folle ou tous ces pseudo-chercheurs de merde ?!

     

    Répondre à ce message

  • Il y a beaucoup de confusion entre IA et algorithme. Il ne me semble pas dans ce qui est dit, hormis d’imaginer dans ce qui n’est pas dit, qu’il s’agisse à proprement parler d’une vraie IA. Il n’y a pas une conscience dans ces "IA", et elles ne font qu’"apprendre" (le mot est fort) ce qu’on leur fait ingurgiter, un peu comme un algorithme : il fait ce qu’il lui est dit de faire. Les IA n’étant pas consciente elles sont incapables d’apprendre seule, donc elles ne sont pas à proprement parler des IA au sens strict. Ce sont des programmes évolués, ni tout à fait algorithmique, ni tout à fait neuronaux (simulation de réseau de neurones). On est donc encore assez loin d’une vraie IA.
    A noter que le "machine learning" est la base classique d’apprentissage des réseaux neuronaux complexes, où on y modifie les étapes d’analyses pour avoir en sortie quelque chose de cohérent, mais il existe maintenant le "deep learning", où le process du réseau neuronal est en gros "simplifié" (certaines étapes du machine learning sont court-circuités) mais on y fait analyser ce réseau neuronal une quantité astronomique de données pour voir ce que cela donne. C’est ce qu’a déjà fait Google en matérialisant ce que "pense" un super-calculateur en deep learning : https://1.bp.blogspot.com/-XZ0i0zXO...

     

    Répondre à ce message

    • @Mich
      Les IA n’étant pas consciente elles sont incapables d’apprendre seule,

      Je suis globalement d’accord avec vous. Mais pourriez-vous dire ce que vous entendez précisément, concrètement, lorsque vous dites "apprendre seule" et pourquoi cela exigerait que l’IA soit consciente.

       
    • #1876957

      Un ventriloque qui fait parler une poupée donne l’illusion que la poupée est vivante, pense et ressent. Tandis que tout le monde sait que la poupée n’est pas vivante car c’est un objet outil.

      Le développeur donne l’illusion que la machine est vivante également. C’est plus impressionnant qu’une poupée mais cela reste un objet outil.

      Cela repond-il à votre question ?

      La conscience animale et humaine qui est plus développé ne peut-être enseignée car c’est lié au monde biologique animal, une plante ne pense pas, une pierre ne pense pas.

      Il est impossible qu’une pierre dispose d’une conscience. Donc votre PlayStation ne développera jamais de conscience.

       
    • @ Lelutin
      Marci, mais vous avez argumenté comme si ma question avait concerné les conditions d’existence de la conscience. Mais ce que je demandais, c’est pourquoi la capacité d’apprendre seule serait réservée à ce qui possède une conscience.

       
    • #1877350

      Pourquoi une machine ne pense pas ? A moins que l’on lui apprenne ce que c’est de penser de manière imagée et non linéaire et d’y associer des émotions et un ensemble d’autres facteurs qui ne peuvent s’exprimer sous forme numérique mais hormonal, sans compter les innombrables facteurs liés à la pensée c’est impossible sans disposer d’un appareil biologique complet. Ne pas oublier ce que disaient les anciens, l’esprit, l’âme (la conscience ?) Et le corps ne font qu’un et sont indissociables.

      C’est une question à laquelle un anatomiste et un biologiste pourraient mieux répondre avec l’aide d’un expert en neuro-sciences. Sans coscience, aucune réflexion sur l’environnement et donc aucun effort d’adaptation car aucun besoin. Les minéraux sont des objets non vivants et éternels donc ils n’ont pas l’utilité de développer quoi que ce soit pour exister. Tandis qu’une cellule vivante n’est pas éternelle et cherche donc un moyen d’exister en s’adaptant et en se reproduisant. A mon avis, la réponse scientifique devrait se rapprocher de ce qui est ci-dessus.

      Pour résumer, l’appareil fait de minéraux de dispose pas de conscience, sans cela, il n’y a aucune auto-réflexion spontanée et donc aucune introspection puisqu’il n’y a aycun besoin à une pierre d’être consciente

      Si l’appareil fait une recherche sur la toile, ou calcul une formule, ou s’allume et s’éteint c’est parce qu’on lui a ordonné.

      Une pierre ne pense pas, si je lui met des roues et une micro-puce, elle ne fera que ce que je lui dicte de faire.

      Pour exemple, le plus puissant des ordinateurs existant devrait selon la théorie d’Alexandre avoir atteint la synchronicité depuis un moment déjà puisque les super ordinateurs disposent d’un niveau de calcul hors du commun et inégalé et pourtant ces machines ne pensent pas.

      En conclusion, sans rentrer dans des algorithmes complexes dans lesquelles il m’était demandé de créer en cours et qui était impossible, comme créer le hasard, un appareil électronique n’effectue aucun calcul sans que l’on lui ai apprit car il ne dispose pas d’un cerveau reptilien, mamalien et du néo-cortex. Donc il lui est impossible sans une biologie complète de saisir le sens d’une émotion qui est importante dans le développement animal et surtout humain. C’est grâce à l’ adrénaline et notre système cardiaque que nous sommes capable de fuir un prédateur ou de tomber amoureux et de fonder un foyer. Et pourtant il n’y a aucun algorithme dedans, c’est de la chimie pure.

       
    • Je crois avoir peut être compris notre malentendu.
      Pour vous, apprendre seul, c’est forcément faire comme un cerveau humain qui apprend seul. Et pour vous cela suppose automatiquement pensée, et donc vous considérez la pensée consciente, et logiquement vous concluez sur la nécessité de la conscience.
      Pour ma part, je crois savoir que notre cerveau a aussi toute une activité dont nous ne sommes pas conscients. Nous apprenons beaucoup de choses par le simple effet de la répétition d’une expérience, sans avoir pour autant mis en branle un processus de réflexion consciente.
      Tout le monde n’étant pas forcément convaincu de cela, je n’insisterai pas avec cet argument. Il y en a un autre :
      Considérez une IA avec suffisamment de puissance de calcul, et suffisamment de datas qui lui sont enfournées. Cela suffit pour qu’après avoir ingurgité les datas, l’IA ai augmenté ses capacités d’analyse ou de discrimination. Et bien, dans ce cas, il y a eu apprentissage, sans intervention humaine (mis à part le remplissage en datas). La machine a appris seule.
      Et par ailleurs nous sommes d’accord qu’une telle machine n’a pas de conscience.

      Voila pourquoi je demandais la raison pour laquelle "apprendre seule" aurait nécessité la conscience.

       
    • #1879615

      Jp

      Apprendre par répétition signigie conscience ou inconscience dans l’acte en soi. L’organisme animal est doté de réflexe inné et qui s’adapte suite à des répétitions exécutées de manière conscientes ou non. Dans tous les cas, cela signifie que s’il y a adaptation c’est qu’il y a un besoin de survie derrière et qui dans ce cas-ci provient du cerveau reptilien (inconscience).

      Un ordinateur fait de minéraux n’a pas de cerveau reptilien et donc n’a aucune utilité d’apprendre seul par lui-même sauf si on lui dit de le faire car ce n’est pas un être vivant. Si on lui dicte d’expérimenter une situation pour trouver une solution en lui fournissant les formules pour y arriver, vous n’arriverez qu’à immiter un être vivant et pas en produire un. Il reste un outil développé rien de plus et se limitera à ça.

      Dans tous les cas, il nous faut un biologiste, un anatomiste, un spécialiste en neurosciences , un zoologiste et des mathématiciens de haut vol pour arriver à étudier la question, voire même un anthropologue pour arriver à se rapprocher d’une réponse scientifique car c’est un objectif éternel pour certains d’entres-nous de comprendre ce que c’est la conscience et c’est une mission vraiment très difficile.

       
  • #1876847

    En même temps, il y a de plus en plus d’abrutis sur cette planète, notamment dans cette période d’effondrement de l’occident ! Ce n’est donc pas pour rien que certains couillons cherchent à remplacer tout cela par de l’intelligence artificielle, il faut bien en trouver quelque part de l’intelligence !

     

    Répondre à ce message

  • #1876880
    Le 10 janvier à 03:34 par Aiguiseur de guillotines
    Et si l’intelligence artificielle était déjà hors de contrôle ?

    Ben.. y’a qu’à débrancher l’bazar.

     

    Répondre à ce message

  • #1876914

    Marrant comment les gens embrayent sur ’’l’intelligence artificielle’’ en parlant du Mars-rover alors que l’on a jamais été sur la Lune (et jamais envoyé de robots sur Mars). C’est juste un technicien du studio de la Nasa qui s’est tapé une nana sur la console de commande et oups, le bidule à 4 roues s’est crashé dans le désert du Nevada. Il y a un épisode là-dessus dans la série TV "The Big Bang Théorie’’. C’est tout de la fiction.

    Revenez sur Terre les gars, ailleurs, ça n’a jamais existé.

     

    Répondre à ce message

  • #1877166

    Ne pas confondre intelligence logique, intelligence créatrice, intelligence critique...
    Seule la première peut aller très loin en utilisant des bases de données gigantesques, mais... finies.
    Je croirai que la machine peut remplacer l’homme le jour où un traducteur sur internet me donnera un texte en français parfait. Maintenant les apprentis sorciers peuvent en effet se brûler les doigts avec un incendie qu’ils ont déclenché...

     

    Répondre à ce message

  • #1877175
    Le 10 janvier à 16:16 par L’oiseau picheboule
    Et si l’intelligence artificielle était déjà hors de contrôle ?

    2001 Odyssée de l’Espace
    "Ouvre la porte Hal ! " "Je ne peux pas, je suis désolé Dave , je sais que tu veux me détruire "

     

    Répondre à ce message

  • #1877434
    Le 10 janvier à 22:05 par Castanietzsche
    Et si l’intelligence artificielle était déjà hors de contrôle ?

    Il faut écouter Lê de la chaîne youtube Science4All sur le sujet, il a fait une série de vidéo sur la démocratie et il en commence une sur l’intelligence artificielle. C’est passionnant et très bien vulgarisé.
    C’est francophone et en format assez court.

     

    Répondre à ce message

Afficher les commentaires précédents