• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Les commentaires de perlseb



  • perlseb 9 août 2023 14:55

    @Xenozoid
    Je ne comprends pas bien votre question. Maintenant que les réseaux neuronaux commencent à avoir des résultats probants avec tout un tas de types de neurones artificiels, on se moque un peu de la manière précise dont la nature fait fonctionner ses neurones.
    Si on arrive à un plafond de verre avec les neurones artificiels, peut-être cherchera-t-on à mieux comprendre la nature pour compliquer un peu notre modèle. Pour l’instant, les progrès sont fulgurants, même si tout le monde se rassure des erreurs de jeunesse (sans rien comprendre aux possibilités et aux enjeux).



  • perlseb 9 août 2023 14:46

    @perlseb
    Pour ce qui est du « from scratch » que j’ai occulté, il l’explique très bien :
    parce que toutes les librairies de réseaux de neurones sont des boîtes noires. C’est-à-dire qu’on ne sait pas comment elles fonctionnent, mais on sait juste qu’elles fonctionnent (la plupart du temps…)

    La bibliothèque a déjà tout un tas de types de neurones différents, mais il veut coder le comportement de ses neurones pour savoir exactement ce qu’il met dans son réseau.

    Ok, il obtiendra un réseau avec ses propres neurones, mais ils seront très lents (codés directement en python au lieu d’être compilé depuis le C et exécutés directement en langage machine grâce à la bibliothèque quand on choisit un neurone de la bibliothèque).



  • perlseb 9 août 2023 14:35

    @pemile
    Les réseaux de neurones qu’on peut tester facilement sur son ordinateur sont des simulations de neurones. Donc on doit programmer leur existence (ils ne sont pas intégrés dans une puce, ce qu’on sait faire par ailleurs). Dans l’exemple que vous citez, les données d’apprentissages sont incluses dans la bibliothèque « mnist ». Comme le dit l’auteur de la page :
    Si jusqu’ici tout se passe bien, tu peux tester sur le data set MNIST
    Plus loin dans le programme d’apprentissage
    from keras.datasets import mnist

    Donc il n’a donné que l’exemple que tout le monde peut faire en débutant sans s’attaquer au réel problème de fond qu’un spécialiste de l’IA devra réaliser : alimenter son réseau avec des données propres au problème à résoudre (et pas uniquement décoder les chiffres écrits à la main, numérisés, puis stockés dans la bibliothèque mnist de kera.datasets que tout le monde télécharge avec la bibliothèque kera pour s’initier).

    Tout le code programme expliqué ne fait que construire un réseau neuronal (en fixant ses poids par convergence, programme complexe mais également dans la bibliothèque). Et il faut également écrire du code pour le tester : lui donner d’autres chiffres manuscrits et voir la réponse qu’il nous donne en simulant (les neurones et leurs liaisons figées) à l’aide de la bibliothèque.
    Mais le réseau neuronal final est une boite noire, ce n’est pas du code, il n’a pas été formé directement par un humain (mais par son jeu de tests et par le programme de convergence) et cette boite noire n’est pas lisible. Cette boite noire donne des réponses normalisées (valeur entière de 0 à 9 correspondant au chiffre, dans l’exemple, je crois) à partir d’entrées normalisées (dans l’exemple une image numérisée d’un chiffre manuscrit avec une définition très précise en nombre de pixels, toujours la même).

    Et personne ne s’intéresse à la manière dont le réseau neuronal fait cette correspondance (ni ne peut comprendre pour les réseaux de 100.000 neurones). On s’intéresse juste à la validité de la réponse.



  • perlseb 9 août 2023 12:51

    @Jean Dugenêt
    En effectuant des recherches rapides sur des articles qui parlent d’IA, on constate énormément d’erreurs qui pourraient vous convaincre que vous êtes dans le vrai. J’en cite une ici, de la part d’un prof de math :
    Cette finesse échappe totalement à ChatGPT car, ne l’oublions pas, ce n’est pas une intelligence humaine mais un robot appliquant des algorithmes essayant d’imiter les conversations humaines.

    Encore une personne qui n’a pas compris ce qu’étaient les réseaux neuronaux. Il n’y a pas d’algorithme appliqué dans un réseau neuronal. Ce sont des entités reliés plus ou moins fortement (ne les appelez pas neurones si vous voulez mais on s’est inspiré du cerveau, d’où le terme neurone).
    De même, certains spécialistes peuvent dire : « je vais programmer un réseau neuronal ». Dans leur bouche, ça veut dire, je vais écrire le code nécessaire pour créer le réseau vierge (trivial avec une bibliothèque) et le former à une tâche particulière (c’est la partie difficile, le plus gros du code : traitement ou génération d’un immense paquet de données de tests). Mais je vous reprends quand vous le dites car pour vous, un réseau neuronal serait un programme qu’on aurait écrit manuellement, ce qu’il n’est pas.



  • perlseb 9 août 2023 12:23

    @Jean Dugenêt
    Je ne comprends pas votre obstination à vouloir comparer les réseaux neuronaux au cerveau humain, ni à vouloir parler d’intelligence.
    Ce que vous avez fait avec votre réseau neuronal (lui réapprendre autre chose), c’est ce que Deepmind a fait avec son réseau Alphazéro (passer des échecs au go). Mais quel intérêt ? Juste pour savoir que le nombre de neurones de votre réseau est suffisant pour résoudre les 2 problèmes (de complexité équivalente).
    L’analogie de ce que vous avez fait avec le cerveau humain serait : « est-ce qu’on demande à un médecin de devenir avocat ? ».
    Ensuite on n’implante pas un programme dans un réseau neuronal. On implante un programme dans un microcontrôleur (par exemple), mais un réseau neuronal est soit vierge soit formé à résoudre un problème donné. Un programme écrit par un humain est également capable de résoudre un problème mais on sait maintenant qu’un programme complexe sera inférieur à un réseau neuronal (voir Stockfish vs Alphazéro). Les programmes ne disparaitront pas, mais ils se cantonneront aux calculs bruts, à la recherche de données dans des bases, etc... (tout ce que les neurones font moins bien). D’ailleurs ChatGPT est mauvais en math (erreur de jeunesse : on n’a pas pensé à l’assister automatiquement par un « calculateur brut » quand le problème qu’on lui demande est mathématique).



  • perlseb 8 août 2023 20:15

    @Jean Dugenêt
    Encore une fois, oui on programme beaucoup pour la création du réseau. On n’obtient pas un réseau neuronal qui reconnait des caractères manuscrits en soudant une vingtaine de composants sur un coin de circuit électronique.
    Le réseau neuronal final que tout le monde peut faire chez soi est virtuel (simulé).
    Le problème c’est que toutes les lignes de codes utilisées pour créer le réseau neuronal n’ont rien à voir avec le problème final que le réseau neuronal va gérer. Ce sont des outils de création, pas des outils de résolution du problème final. C’est bien le réseau qui va répondre aux entrées et fournir les sorties qui nous intéressent une fois figé. Et les programmes complexes utilisés pour le créer n’ont plus aucune utilité après la création.
    Et ces programmes de création ne sont rien du tout sans les données d’apprentissage. On ne forme pas un réseau neuronal sans données.

    On ne programme pas un réseau de neurones, on utilise des programmes pour le générer car c’est bien trop complexe pour être créé par un humain (trop d’entités, trop de liens).



  • perlseb 8 août 2023 19:52

    @Jean Dugenêt
    Effectivement, je n’ai pas fait d’erreur.

    Il faut distinguer la construction du réseau (apprentissage très couteux en calculs et en programmation spécifique) et la phase d’utilisation du réseau figé (oui, il y a encore des calculs pour simuler les neurones, mais ils sont triviaux, c’est juste l’énergie nécessaire).

    C’est vrai que je n’avais pas imaginé qu’on pouvait considérer que, comme des calculs étaient nécessaires pour faire fonctionner les neurones artificiels (cout de la simulation), alors on pouvait imaginer qu’un réseau neuronal n’était qu’un programme.



  • perlseb 8 août 2023 18:17

    @Jean Dugenêt
    Je préfère le repréciser. Le code qui fait « tourner » un réseau neuronal formé est réellement un jeu d’enfant. C’est le réseau neuronal qui contient toute l’information, toute la connaissance (avec le poids de chacune de ses liaisons).
    On peut considérer que le code qui fait tourner le réseau neuronal artificiel n’est que l’énergie nécessaire dont les neurones artificiels ont besoin pour exprimer leur complexité de groupe.
    Je pense sincèrement que le code qui fait tourner les petits comme les grands réseaux neuronaux (avec des neurones de même type) tient sur quelques lignes seulement (pour chaque couche, on traite chaque connexion de chaque neurones : on récupère l’entrée et les poids on fait le calcul de la sortie, on passe au suivant).



  • perlseb 8 août 2023 17:57

    @Jean Dugenêt
    Vous avez raison, la tâche consistant à former un réseau de neurones est très complexe et fait appel à beaucoup d’écriture de code. Il faut manipuler des tonnes de données (sorties connues pour des entrées connues). Parfois, on automatise la génération de ces données (quand une machine joue contre elle-même ou que les lois de la physique peuvent calculer directement la validité de la réponse du réseau : l’action sur les « muscles » prédite par le réseau neuronal va faire tomber l’humain simulé).
    Le code des librairies (tensorflow, etc...) permettent de faciliter la manipulation des réseaux neuronaux lors de l’apprentissage, de le faire converger si on lui fournit les entrées et les sorties et de le manipuler lors de son fonctionnement comme un objet final. Mais à aucun moment, les librairies ne fournissent les entrées et les sorties de votre problème. C’est vous, en tant que spécialiste de l’IA qui allez devoir les récupérer, les trier, les agréger, les faire générer par un programme faisant appel aux lois de la physique, et les homogénéiser pour les faire ingurgiter par le réseau neuronal.
    Il y a déjà des données d’exemple dans les librairies, mais c’est pour s’initier au fonctionnement des librairies et comprendre les différentes étapes.

    Et, je l’ai dit plus bas, une fois tout ce code utilisé pour générer le réseau neuronal, le réseau formé devient autonome et n’a plus besoin de ce code pour fournir une réponse à partir d’une entrée. Le réseau formé n’est pas du code, c’est une boite noire, un ensemble de neurones reliés et on n’y touche plus. Mais comme je l’ai aussi écrit sur d’autres posts, même lorsqu’un réseau est autonome, il a besoin d’entrées avec un format précis (il y a donc une partie code en amont) et il y a souvent du code en sortie pour décoder la réponse et faire les actions nécessaires.

    Quand je dis autonome, il faut évidemment faire beaucoup de calculs pour simuler les neurones et leurs connexions figées. Et les bibliothèques sont là également pour ça : faire tourner le réseau neuronal formé. On prend les signaux en entrée, on fait des tas de multiplications et d’additions pour chacune des connexions et on calcule la propagation des entrées jusque vers la sortie qui donne la réponse. Mais ce code est un peu un jeu d’enfant par rapport au code de convergence (qui lui est écrit une fois pour toute selon le mode de convergence choisi : donc fourni par les bibliothèques) et au code de récupération et de manipulation des données d’entrées et de sorties pendant la phase d’apprentissage (totalement spécifique à chaque problème : c’est l’essentiel du travail en IA).



  • perlseb 8 août 2023 16:35

    @perlseb

    Bien comprendre les différences entre programmes et réseaux neuronaux.

    Un programme est constitué de lignes de code qui sont écrites dans un langage informatique. Tout programmeur, maitrisant ce langage, peut dire ce que fait une ligne de code même si extraite du contexte, il y a peu de chance de comprendre son intérêt. Mais (on va exclure pour simplifier les programmes multi-threadés ou multi-processeurs) un programme s’exécute séquentiellement (globalement, on peut faire des sauts évidemment), c’est-à-dire que le processeur va exécuter les lignes de code les unes après les autres. Il ne se trouvera pas à plusieurs endroits en même temps. La tâche du programmeur consiste à soit tester un état soit à agir selon cet état (exécution d’actions, changement de variables, d’état).

    Un réseau de neurones est un ensemble de neurones reliés entre eux. Le spécialiste de l’IA s’occupera de choisir la forme de son réseau. Mais le plus délicat (et le plus long) consiste à « former » ce réseau de neurones. Pour le faire, il ne peut que jouer sur les entrées et les sorties du réseau. Par exemple, Alphazéro se forme en 4h aux échecs et contient plusieurs centaines de milliers de neurones (sur environ 80 couches). A aucun moment, un spécialiste de l’IA vient modifier manuellement les liaisons entre 2 neurones (en augmentant ou diminuant la force de leur lien), car s’il n y avait que 100.000 neurones et qu’il y passait 1 seconde pour traiter toutes les liaisons de chacun d’eux (totalement impossible), il lui faudrait plus de 27h (et évidemment, il n’y aurait aucune chance pour que le réseau converge en agissant ainsi). De plus, la convergence des connections vers des valeurs qui permettent de trouver toutes les sorties à partir des entrées s’effectue petit à petit. A chaque fois qu’on ajoute un nouveau couple entrée / sortie, on réajuste les connections d’un grand nombre de neurones pour que le réseau se rapproche de son état définitif. Et contrairement à un programme, il n’y a pas qu’un seul neurone actif en même temps : si une couche est constituée de 1000 neurones, il peut y en avoir 20, 550, 900 qui sont actifs. Et l’ensemble des combinaisons possibles représente un nombre d’états qu’un humain ne peut pas appréhender.

    La différence doit sauter aux yeux : un programme est constitué de lignes écrites par humain dans un langage compréhensible. Un réseau neuronal formé (après apprentissage) est constitué de neurones dont les liens ont été calculés par un algorithme assurant la convergence. Un réseau de neurones est illisible pour un humain, ce n’est qu’une suite de chiffres (d’entités reliés plus ou moins fortement). Même si les neurones étaient autonomes, il ne serait pas possible de comprendre ce que représente un neurone dans un réseau qui en comporte 100.000 (si l’on excepte les couches d’interfaces entrée/sortie). Mais un neurone ne peut même pas être compris individuellement : c’est l’ensemble des neurones actifs / non actifs (avec un nombre de possibilités nettement supérieurs au nombre de neurones) qui définit l’état du réseau. Et si on décide que les neurones peuvent avoir des états réels (et non binaires), inutile de dire que le nombre d’états possibles monte en flèche.

    En conclusion : un programme peut se modifier, on peut réécrire des lignes, ajouter des morceaux... Un réseau neuronal formé est un paquet qu’un humain ne peut pas toucher directement car c’est un code complexe qui a calculé (pendant l’apprentissage) les liaisons des éléments qui le constituent, que ces éléments sont bien trop nombreux et sans aucune signification particulière pris individuellement.

    Le code (programme) utilisé lors de l’apprentissage n’a plus aucune utilité passé cette phase : le réseau neuronal est opérationnel et autonome.



  • perlseb 7 août 2023 22:18

    @Jean Dugenêt
    Les réseaux neuronaux ne sont pas formés par leur apprentissage

    C’est la base. La « topographie » du réseau est effectivement choisie (réseau vierge). Les poids des connections sont bien fixés lors de la phase de l’apprentissage.

    Un réseau vierge n’a strictement aucune utilité. Comme le cerveau d’un enfant qui aurait été élevé dans le vide, sans recevoir aucun signal dans sa vie et qui n’aurait donc rien appris.



  • perlseb 7 août 2023 22:02

    @Jean Dugenêt
    Évidemment que c’est « prévisible » puisque ce sont des calculs.
    Mais ça ne veut rien dire de plus qu’un neurone activé ou éteint. Et comme un neurone ne correspond à rien de concret, c’est juste incompréhensible. Oui, on peut prévoir l’incompréhensible, et ça nous avance à rien dans notre compréhension. Il n’y a pas besoin de lire des ouvrages complexes pour comprendre les réseaux neuronaux. Mais à aucun moment, les humains ne cherchent à analyser ou « comprendre » le cheminement des neurones allumés, ça ne sert à rien du tout. On se sert d’un réseau neuronal comme d’une boite noire « magique ».

    Si vous ne pouvez pas comprendre la différence entre un réseau de neurones et un programme, je crois que vous devriez éviter de parler d’IA. Et c’est globalement le problème de l’incompréhension : il n’y a pas d’explication à ce que certains cerveaux puissent appréhender certaines notions et que d’autres n’y arrivent pas. Je ne fais aucun classement des hommes entre eux, il y a tellement de domaines pour se juger qu’un jugement global serait présomptueux. Il y a des domaines où je suis très mauvais, et c’est comme ça.

    Malheureusement, la quasi-totalité des gens ne comprennent rien à l’IA. Ils sont persuadés que l’homme est derrière chaque réponse de l’IA, que seul le calcul (vitesse) fait la différence. Non, l’homme ne comprend déjà plus la réponse des machines. Elles deviennent des boites noires, et c’est le pari que l’on a fait en cherchant à imiter le cerveau.



  • perlseb 7 août 2023 20:47

    @perlseb
    En fait, le cheminement dans un réseau neuronal est incompréhensible car un neurone dans le réseau interne n’a aucune relation avec le réel. Les neurones en entrée/sortie reçoivent ou envoient un signal : il y a donc un code pour ces « neurones de surface » : ils sont en liaison avec le monde réel.
    Pour les neurones internes (dans les couches intermédiaires entre l’entrée et la sortie), il n’y a aucune explication à ce qu’ils peuvent vouloir dire. Ce sont des trajets intermédiaires nécessaires, mais individuellement, ils ne représentent rien de concret, le fait qu’ils soient activés ou non selon les entrées est un mystère issu de l’apprentissage (aussi bien chez les hommes que chez les machines).



  • perlseb 7 août 2023 20:18

    @Jean Dugenêt
    C’est là que vous ne comprenez pas. Les réseaux neuronaux artificiels cherchent à imiter les neurones et synapses. Il n’y a aucun code. Il n’y a que des poids qu’il faut déterminer pour les liaisons entre neurones (après avoir choisi son réseau évidemment : nombre de couches, nombre de neurones, types de neurones...).
    Les réseaux neuronaux sont formés par leur apprentissage, de la même manière qu’un homme forme son cerveau dès l’embryon à partir des signaux qu’il reçoit. Et ces signaux que le cerveau humain reçoit, il les traite de manière imparfaite au départ, fait des erreurs et peu à peu, crée des chemins entre ses neurones qui lui permettent d’avoir une bonne image de son environnement (dans un premier temps), puis une bonne commande de ses muscles (marcher, courir), puis une compréhension du langage, etc...
    Globalement, un réseau neuronal utile, c’est un ensemble d’entités qui ont créé des chemins préférentiels selon l’expérience acquise. Et on reproduit ce schéma dans les réseaux artificiels, c’est pourquoi ce sont des boites noires et qu’on ne peut pas les débuguer (on perd la connaissance).

    Dans l’ensemble, quand un humain a une bonne réponse à une question, on n’a fichtrement aucune idée de savoir comment il l’a eu (quels milliards de neurones et synapses ont été activés pour comprendre la question, réfléchir et formuler la réponse) : on n’en sait rien. Pour les réseaux neuronaux artificiels, on n’en sait rien non plus. En fait, pour la machine, le réseau de neurones est connu exactement, on pourrait allumer les neurones activés au ralenti et on « verrait » que la réponse en entrée à donné la bonne réponse en sortie par des tas de lampes qui s’allument sans aucune raison apparente. Ce n’est pas une explication (pas du tout un programme), juste un cheminement dans un réseau. Et ça ne se débugue pas en cas d’erreur. C’est juste incompréhensible.

    Et la pensée n’est peut-être que ça... En tous cas, quand on voit les progrès des IA qu’on imaginait pas aussi rapides (« comprendre » une question et y répondre), il y en a de plus en plus qui sont convaincus que nos pensées ne sont que ça (des neurones qui clignotent de manière sélective selon nos pensées).



  • perlseb 7 août 2023 15:44

    @jjwaDal
    Globalement d’accord avec votre post. Cependant, les robots de Boston Dynamics ne marchent qu’avec des algorithmes. Ce sont des programmes qui tournent pour que le robot avance et reste en équilibre selon le parcours qu’on lui demande. Il sait gérer de l’imprévisible (sur le parcours) mais la réponse à cette imprévu est codée dans un programme humain.

    Comme ces programmes sont longs et complexes, que si l’humain se trompe dans le code, il risque de casser du matériel couteux, alors on va faire des simulations avec des réseaux neuronaux sur des machines virtuelles. Et c’est là que ça devient intéressant. En gros, les programmes humains vont être aussi inefficaces que Stockfish l’était contre Alphazéro aux échecs. On va les remplacer par des réseaux neuronaux qui auront appris à marcher à partir de leurs erreurs (comme un enfant) en simulation. Et on pourra alors greffer ce réseau neuronal formé sur le robot bien réel. Et le robot marchera du premier coup, sans couter de l’argent en s’auto-détruisant par maladresse, bien plus efficacement que se qu’aurait pu écrire un programmeur.

    Et c’est bien avec ces réseaux neuronaux que l’IA va dépasser l’homme (dans chacune de ses spécialités). Peut-être qu’on ne remplacera pas 1% de chercheurs géniaux avec des idées ultra-novatrices. Mais on remplacera sans problème 99% des métiers intellectuels qui consistent pour la plupart à appliquer des connaissances et progresser à partir de ses erreurs.



  • perlseb 7 août 2023 13:58

    @lecoindubonsens
    Je ne sais pas quelles sont vos formations mais je programme dans beaucoup de langages (assembleur pic, perl, python, C...) et j’ai également reçu une formation sur les réseaux neuronaux en tant qu’électricien généraliste.
    Non, les réseaux neuronaux artificiels ne se programment pas. Bien évidemment qu’on écrit du code en entrée (pour envoyer une « question propre ») et du code en sortie pour retranscrire la « réponse propre » du réseau neuronal.

    Mais en lui-même, le réseau neuronal est un ensemble d’entités (« neurones artificiels ») reliés à un certain nombres d’autres neurones (par des « synapses artificielles »). et ce sont ces liaisons (poids, ou importance des liens entre synapses) que l’on fige (plus ou moins si le réseau reste évolutif) lors de la phase d’apprentissage (phase pendant laquelle les sorties sont connues pour les données d’entrées). Durant cette phase d’apprentissage, si le réseau neuronal contient assez de couches de neurones, de liaisons ... (s’il est bien dimensionné pour le problème), on doit normalement observer une convergence des poids de chacune des liaisons.

    Ensuite, une fois ce réseau neuronal formé, il donnera des réponses pour des problèmes similaires qu’il n’a pas rencontré. Et c’est là qu’on ne peut rien comprendre à la réponse. Soit on a bien dimensionné le réseau neuronal (bonne convergence...) et on aura des réponses correctes, soit on pourra avoir des réponses fausses. Et on ne peut rien expliquer en cas de problème. Juste changer le réseau (plus de couches, de liaisons) ou changer l’apprentissage.

    Donc il n’y a pas de programmeur de réseau neuronaux. Mais c’est un peu comme la méthode des éléments finis pour les calculs physiques (par exemple pour étudier la résistance ou la déformation de structures) : on a des spécialistes qui savent quels éléments utiliser pour le maillage (trapèze, triangles... très petits mais pas infiniment) selon la forme de la pièce (ou de l’espace) à étudier (c’est assez empirique en fait (expérience, intuition) : donc une machine avec un réseau neuronal pourrait le faire également). On va avoir des spécialistes en IA qui vont apprendre à dimensionner un réseau neuronal selon le problème à traiter (expérience et intuition, encore une fois). Jusqu’à ce que les machines nous dépassent dans ce domaine également !



  • perlseb 6 août 2023 15:12

    @lecoindubonsens
    Un réseau neuronal ne se programme pas, il subit une phase d’apprentissage, comme le cerveau humain. C’est bien le but recherché de l’IA (avec les réseaux neuronaux artificiels) : imiter le cerveau, il n’y a pas d’algorithme, ni de programmeur et on ne comprend pas la réponse d’un réseau neuronal (boite noire). C’est aussi la raison pour laquelle ChatGPT hallucine parfois et que l’on ne sait pas l’expliquer (problème qu’on cherche à éliminer mais il n’y a aucun code à analyser pour trouver l’erreur).

    Donc non, il y a bien lieu de s’inquiéter de voir des machines « comprendre » suffisamment notre langage pour répondre correctement à des questions permettant d’être diplômé. Et contrairement aux humains qui vieillissent, meurent et doivent repartir de zéro, elles ne feront que progresser.
    Le remplacement de métiers réellement intellectuels a déjà commencé. Si tout le monde se moque des joueurs (de go ou d’échecs) et que l’IA s’est intéressé d’abord aux jeux parce qu’il n’y a aucun jeu de tests fastidieux à créer pour la phase d’apprentissage (la machine n’a qu’à jouer contre elle-même), comme le travail des humains est de plus en plus numérisé et archivé, les machines commencent à avoir des jeux de tests pour un grand nombre de métiers et elles pourront être mieux « formées » que les humains en avalant bien plus de données qu’un humain pourra en avaler dans sa vie.

    On pourra toujours dire que la machine n’est ni intelligente ni consciente, mais si ses choix sont aussi bons sinon meilleurs (qu’elle se trompe moins que l’humain), qu’elle ne demande que de l’électricité et pas un salaire, qu’elle ne fait jamais grève, travaille 24h/24 sans congés payés, en tant que patron, le choix sera vite fait. Le pire dans l’histoire, c’est qu’elles seront bien plus rapides dans leur réponse (travailleront comme 10 ou 100 comptables...).

    Ce n’est pas le progrès des sciences et techniques qui m’inquiète tant, mais le système économique qui les utilise de manière parfaitement inégalitaire (bénéfices accrus pour certains en échange de plus de misère avec le chômage pour d’autres). Et on peut également s’attendre à une décadence intellectuelle si les humains sont complètement dépassés : on voit déjà la décadence physique puisqu’on a déjà été remplacé dans ce domaine.

    Et dans le meilleur des cas, si la système économique évolue dans le bon sens et que le travail n’est plus nécessaire (partage des richesses produites par les machines), est-ce que l’homme ne va pas devenir un enfant à ne vivre que pour se distraire et s’amuser ? Je ne suis déjà pas trop content de la décadence physique générale (je fais moi-même pas mal de sport), mais je ne voudrais pas du tout vivre avec des hommes qui ne font plus aucun effort intellectuel (idiots complets). Pour moi, même dans ce scénario optimiste, l’IA signe la fin de l’homme.



  • perlseb 5 août 2023 17:51

    @perlseb
    Exemple inquiétant, parmi d’autres (ça va tellement vite) :
    Le chatbot médical d’IA de Google réussit l’examen de médecine américain : 67,6% de réponses correctes en février, et maintenant avec la version 2, 86,5% de réponses correctes...



  • perlseb 5 août 2023 15:30

    @Jean Dugenêt
    Entièrement d’accord avec votre conclusion.

    Par contre, si les machines sont meilleures en calcul (avec leur CPU, Central Processing Unit et leur mémoire volatile RAM), meilleures en mémoire non volatile précises (par exemple disques dur SSD locaux à la machine), plus rapides en communication (pour aller chercher de l’information sur une autre machine ou répartir une charge de travail sur plusieurs machines différentes) elles peuvent travailler maintenant en association avec ces fameux réseaux neuronaux qui ne sont là ni pour les calculs ni pour la mémoire.

    Les calculs sont utiles pour simuler un réseau neuronal, mais ce n’est pas le calcul qui nous intéresse quand on utilise un réseau neuronal : c’est l’approche intuitive humaine que l’on cherche à imiter (son « intelligence » même si je ne cherche pas à dire qu’un réseau neuronal artificiel est intelligent : je me fiche des termes, je m’attache à ses nouvelles aptitudes) . Avec les réseaux neuronaux, on donne la possibilité aux machine de trouver des réponses que l’homme n’a pas codées lui-même (coup surprenant au Go ou aux échecs) et donc d’« innover », de « créer ». On n’utilisera jamais un réseau neuronal artificiel pour faire des calculs ou mémoriser des données (ce que l’homme est obligé de faire avec son cerveau puisqu’il n’a que ça). Comme les machines sont réellement plus efficaces en mémoire pure et en calcul pur (même au point de vue énergétique), le réseau neuronal artificiel sera totalement allégé de cette tâche. Donc s’il est beaucoup plus petit en termes d’entités et de liens (que notre cerveau), vu qu’on peut le spécialiser dans un seul domaine et le décharger de beaucoup de choses, il y a bien un match avec l’homme. Et avec l’augmentation continue des puissances de calculs (loi de Moore), s’il n’y a pas match aujourd’hui, il y aura peut-être match demain.

    Notre réseau neuronal est bien plus complexe, mais je ne suis pas sûr qu’il soit plus efficace sur un domaine pointu par rapport à un réseau neuronal ultra-spécialisée dans ce domaine uniquement. Et on ne peut pas apprendre une seule chose à un humain Nous devons utiliser une grande partie de notre cerveau pour communiquer, nous nourrir, nous distraire, mémoriser, ...

    Et si j’ai raison (dans le domaine spécialisé des « sports cérébraux », la réponse est oui), c’est effrayant. Encore plus avec un système social / économique tel que le notre.



  • perlseb 5 août 2023 12:24

    @Jean Dugenêt
    J’ai la même vision du capitalisme que vous. Si c’était légal et que ça augmentait les bénéfices, nos saints patrons n’hésiteraient pas à faire de la purée de travailleurs.
    Mais je ne partage pas votre vision du futur sur une main d’œuvre qualifiée. D’une part il y aura toujours des personnes qui n’auront pas les moyens de faire des choses compliquées (leur exclusion pure et simple n’est pas une solution acceptable).
    Mais surtout, je crois que l’IA va d’abord nous assister maladroitement (hallucinations de l’IA à détecter par un superviseur humain), puis on règlera ces problèmes de jeunesse et l’IA deviendra beaucoup plus fiable, l’expert ne trouvant rien à redire, sa productivité sera nettement augmentée. Puis l’expert commencera à ne plus comprendre les réponses de l’IA, mais leur application s’avèrera excellente et ce sera la fin de la maitrise de l’humain (et ça marche avec des machines expertes dans un seul domaine, sans « intelligence », ni conscience).
    Autrement dit, quand on regarde des films de science-fiction, ils sont à des années lumières de comprendre l’importance que peut avoir l’IA dans le futur. Il n’y aura pas de pilote humain de vaisseaux spatiaux, ni de réparateurs de moteurs ultra-complexes. Les hommes seront largués depuis longtemps. Ils n’auront même pas les moyens de comprendre en travaillant toute une vie et en étant génial.
    On peut évidemment choisir de ne pas être largué et de limiter volontairement les futures découvertes de l’IA si on ne les comprend pas. Mais il faudrait pour cela impérativement changer de système économique pour que la concurrence ne soit plus la règle. Comme les patrons ne sont pas les seuls esclavagistes (tout pauvre n’est bien souvent qu’un patron qui n’a pas réussi), j’ai des gros doutes sur notre capacité à changer de système économique. Et donc si l’IA procure un avantage concurrentiel, elle sera utilisée au maximum de ses possibilités.

    Alors certains s’imaginent pouvoir augmenter l’humain pour que son intelligence améliorée puisse toujours comprendre les réponses de plus en plus complexes des machines (Elon Musk). Mais j’ai peur que l’humain ne puisse accepter sa condition animale s’il devient plus intelligent, et sera-t-il encore humain si on est obligé de trafiquer ses émotions pour qu’il se supporte et n’ai pas des envies suicidaires ? Dans tous les cas, ce sera la fin de l’humain (dépendant du système économique pour son fonctionnement) : en cas de crise, ce ne sera pas une simple paupérisation mais une extinction de masse.

    Alors je sais que certains sont sûr que cette évolution de l’IA avec la rétrogradation de l’homme est impossible (l’homme est tellement ...), mais le scénario commence dès aujourd’hui : l’IA assiste dès maintenant beaucoup d’experts.

    Pour moi, l’avenir de l’homme est de cultiver son jardin. Les machines devront lui laisser au moins ça pour qu’il garde sa santé mentale.

    Ce commentaire ne reflète évidemment que mon avis de technicien qui s’intéresse beaucoup à l’IA mais sans aucune béatitude, plutôt avec inquiétude justement. Et il y en beaucoup, des diplômés qui s’inquiètent de l’IA. Surement tous des idiots, comme moi.