• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

perlseb

Nous avons tous 2 parents, 4 grands-parents, ..., environ 1 million (2 puissance 20) d’ascendants à la 20ème génération : nous sommes tous frères mais nous avons aussi, inévitablement, quelques criminels parmi nos ancêtres.

Tableau de bord

Rédaction Depuis Articles publiés Commentaires postés Commentaires reçus
L'inscription 0 1213 0
1 mois 0 0 0
5 jours 0 0 0

Derniers commentaires



  • perlseb 7 août 2023 13:58

    @lecoindubonsens
    Je ne sais pas quelles sont vos formations mais je programme dans beaucoup de langages (assembleur pic, perl, python, C...) et j’ai également reçu une formation sur les réseaux neuronaux en tant qu’électricien généraliste.
    Non, les réseaux neuronaux artificiels ne se programment pas. Bien évidemment qu’on écrit du code en entrée (pour envoyer une « question propre ») et du code en sortie pour retranscrire la « réponse propre » du réseau neuronal.

    Mais en lui-même, le réseau neuronal est un ensemble d’entités (« neurones artificiels ») reliés à un certain nombres d’autres neurones (par des « synapses artificielles »). et ce sont ces liaisons (poids, ou importance des liens entre synapses) que l’on fige (plus ou moins si le réseau reste évolutif) lors de la phase d’apprentissage (phase pendant laquelle les sorties sont connues pour les données d’entrées). Durant cette phase d’apprentissage, si le réseau neuronal contient assez de couches de neurones, de liaisons ... (s’il est bien dimensionné pour le problème), on doit normalement observer une convergence des poids de chacune des liaisons.

    Ensuite, une fois ce réseau neuronal formé, il donnera des réponses pour des problèmes similaires qu’il n’a pas rencontré. Et c’est là qu’on ne peut rien comprendre à la réponse. Soit on a bien dimensionné le réseau neuronal (bonne convergence...) et on aura des réponses correctes, soit on pourra avoir des réponses fausses. Et on ne peut rien expliquer en cas de problème. Juste changer le réseau (plus de couches, de liaisons) ou changer l’apprentissage.

    Donc il n’y a pas de programmeur de réseau neuronaux. Mais c’est un peu comme la méthode des éléments finis pour les calculs physiques (par exemple pour étudier la résistance ou la déformation de structures) : on a des spécialistes qui savent quels éléments utiliser pour le maillage (trapèze, triangles... très petits mais pas infiniment) selon la forme de la pièce (ou de l’espace) à étudier (c’est assez empirique en fait (expérience, intuition) : donc une machine avec un réseau neuronal pourrait le faire également). On va avoir des spécialistes en IA qui vont apprendre à dimensionner un réseau neuronal selon le problème à traiter (expérience et intuition, encore une fois). Jusqu’à ce que les machines nous dépassent dans ce domaine également !



  • perlseb 6 août 2023 15:12

    @lecoindubonsens
    Un réseau neuronal ne se programme pas, il subit une phase d’apprentissage, comme le cerveau humain. C’est bien le but recherché de l’IA (avec les réseaux neuronaux artificiels) : imiter le cerveau, il n’y a pas d’algorithme, ni de programmeur et on ne comprend pas la réponse d’un réseau neuronal (boite noire). C’est aussi la raison pour laquelle ChatGPT hallucine parfois et que l’on ne sait pas l’expliquer (problème qu’on cherche à éliminer mais il n’y a aucun code à analyser pour trouver l’erreur).

    Donc non, il y a bien lieu de s’inquiéter de voir des machines « comprendre » suffisamment notre langage pour répondre correctement à des questions permettant d’être diplômé. Et contrairement aux humains qui vieillissent, meurent et doivent repartir de zéro, elles ne feront que progresser.
    Le remplacement de métiers réellement intellectuels a déjà commencé. Si tout le monde se moque des joueurs (de go ou d’échecs) et que l’IA s’est intéressé d’abord aux jeux parce qu’il n’y a aucun jeu de tests fastidieux à créer pour la phase d’apprentissage (la machine n’a qu’à jouer contre elle-même), comme le travail des humains est de plus en plus numérisé et archivé, les machines commencent à avoir des jeux de tests pour un grand nombre de métiers et elles pourront être mieux « formées » que les humains en avalant bien plus de données qu’un humain pourra en avaler dans sa vie.

    On pourra toujours dire que la machine n’est ni intelligente ni consciente, mais si ses choix sont aussi bons sinon meilleurs (qu’elle se trompe moins que l’humain), qu’elle ne demande que de l’électricité et pas un salaire, qu’elle ne fait jamais grève, travaille 24h/24 sans congés payés, en tant que patron, le choix sera vite fait. Le pire dans l’histoire, c’est qu’elles seront bien plus rapides dans leur réponse (travailleront comme 10 ou 100 comptables...).

    Ce n’est pas le progrès des sciences et techniques qui m’inquiète tant, mais le système économique qui les utilise de manière parfaitement inégalitaire (bénéfices accrus pour certains en échange de plus de misère avec le chômage pour d’autres). Et on peut également s’attendre à une décadence intellectuelle si les humains sont complètement dépassés : on voit déjà la décadence physique puisqu’on a déjà été remplacé dans ce domaine.

    Et dans le meilleur des cas, si la système économique évolue dans le bon sens et que le travail n’est plus nécessaire (partage des richesses produites par les machines), est-ce que l’homme ne va pas devenir un enfant à ne vivre que pour se distraire et s’amuser ? Je ne suis déjà pas trop content de la décadence physique générale (je fais moi-même pas mal de sport), mais je ne voudrais pas du tout vivre avec des hommes qui ne font plus aucun effort intellectuel (idiots complets). Pour moi, même dans ce scénario optimiste, l’IA signe la fin de l’homme.



  • perlseb 5 août 2023 17:51

    @perlseb
    Exemple inquiétant, parmi d’autres (ça va tellement vite) :
    Le chatbot médical d’IA de Google réussit l’examen de médecine américain : 67,6% de réponses correctes en février, et maintenant avec la version 2, 86,5% de réponses correctes...



  • perlseb 5 août 2023 15:30

    @Jean Dugenêt
    Entièrement d’accord avec votre conclusion.

    Par contre, si les machines sont meilleures en calcul (avec leur CPU, Central Processing Unit et leur mémoire volatile RAM), meilleures en mémoire non volatile précises (par exemple disques dur SSD locaux à la machine), plus rapides en communication (pour aller chercher de l’information sur une autre machine ou répartir une charge de travail sur plusieurs machines différentes) elles peuvent travailler maintenant en association avec ces fameux réseaux neuronaux qui ne sont là ni pour les calculs ni pour la mémoire.

    Les calculs sont utiles pour simuler un réseau neuronal, mais ce n’est pas le calcul qui nous intéresse quand on utilise un réseau neuronal : c’est l’approche intuitive humaine que l’on cherche à imiter (son « intelligence » même si je ne cherche pas à dire qu’un réseau neuronal artificiel est intelligent : je me fiche des termes, je m’attache à ses nouvelles aptitudes) . Avec les réseaux neuronaux, on donne la possibilité aux machine de trouver des réponses que l’homme n’a pas codées lui-même (coup surprenant au Go ou aux échecs) et donc d’« innover », de « créer ». On n’utilisera jamais un réseau neuronal artificiel pour faire des calculs ou mémoriser des données (ce que l’homme est obligé de faire avec son cerveau puisqu’il n’a que ça). Comme les machines sont réellement plus efficaces en mémoire pure et en calcul pur (même au point de vue énergétique), le réseau neuronal artificiel sera totalement allégé de cette tâche. Donc s’il est beaucoup plus petit en termes d’entités et de liens (que notre cerveau), vu qu’on peut le spécialiser dans un seul domaine et le décharger de beaucoup de choses, il y a bien un match avec l’homme. Et avec l’augmentation continue des puissances de calculs (loi de Moore), s’il n’y a pas match aujourd’hui, il y aura peut-être match demain.

    Notre réseau neuronal est bien plus complexe, mais je ne suis pas sûr qu’il soit plus efficace sur un domaine pointu par rapport à un réseau neuronal ultra-spécialisée dans ce domaine uniquement. Et on ne peut pas apprendre une seule chose à un humain Nous devons utiliser une grande partie de notre cerveau pour communiquer, nous nourrir, nous distraire, mémoriser, ...

    Et si j’ai raison (dans le domaine spécialisé des « sports cérébraux », la réponse est oui), c’est effrayant. Encore plus avec un système social / économique tel que le notre.



  • perlseb 5 août 2023 12:24

    @Jean Dugenêt
    J’ai la même vision du capitalisme que vous. Si c’était légal et que ça augmentait les bénéfices, nos saints patrons n’hésiteraient pas à faire de la purée de travailleurs.
    Mais je ne partage pas votre vision du futur sur une main d’œuvre qualifiée. D’une part il y aura toujours des personnes qui n’auront pas les moyens de faire des choses compliquées (leur exclusion pure et simple n’est pas une solution acceptable).
    Mais surtout, je crois que l’IA va d’abord nous assister maladroitement (hallucinations de l’IA à détecter par un superviseur humain), puis on règlera ces problèmes de jeunesse et l’IA deviendra beaucoup plus fiable, l’expert ne trouvant rien à redire, sa productivité sera nettement augmentée. Puis l’expert commencera à ne plus comprendre les réponses de l’IA, mais leur application s’avèrera excellente et ce sera la fin de la maitrise de l’humain (et ça marche avec des machines expertes dans un seul domaine, sans « intelligence », ni conscience).
    Autrement dit, quand on regarde des films de science-fiction, ils sont à des années lumières de comprendre l’importance que peut avoir l’IA dans le futur. Il n’y aura pas de pilote humain de vaisseaux spatiaux, ni de réparateurs de moteurs ultra-complexes. Les hommes seront largués depuis longtemps. Ils n’auront même pas les moyens de comprendre en travaillant toute une vie et en étant génial.
    On peut évidemment choisir de ne pas être largué et de limiter volontairement les futures découvertes de l’IA si on ne les comprend pas. Mais il faudrait pour cela impérativement changer de système économique pour que la concurrence ne soit plus la règle. Comme les patrons ne sont pas les seuls esclavagistes (tout pauvre n’est bien souvent qu’un patron qui n’a pas réussi), j’ai des gros doutes sur notre capacité à changer de système économique. Et donc si l’IA procure un avantage concurrentiel, elle sera utilisée au maximum de ses possibilités.

    Alors certains s’imaginent pouvoir augmenter l’humain pour que son intelligence améliorée puisse toujours comprendre les réponses de plus en plus complexes des machines (Elon Musk). Mais j’ai peur que l’humain ne puisse accepter sa condition animale s’il devient plus intelligent, et sera-t-il encore humain si on est obligé de trafiquer ses émotions pour qu’il se supporte et n’ai pas des envies suicidaires ? Dans tous les cas, ce sera la fin de l’humain (dépendant du système économique pour son fonctionnement) : en cas de crise, ce ne sera pas une simple paupérisation mais une extinction de masse.

    Alors je sais que certains sont sûr que cette évolution de l’IA avec la rétrogradation de l’homme est impossible (l’homme est tellement ...), mais le scénario commence dès aujourd’hui : l’IA assiste dès maintenant beaucoup d’experts.

    Pour moi, l’avenir de l’homme est de cultiver son jardin. Les machines devront lui laisser au moins ça pour qu’il garde sa santé mentale.

    Ce commentaire ne reflète évidemment que mon avis de technicien qui s’intéresse beaucoup à l’IA mais sans aucune béatitude, plutôt avec inquiétude justement. Et il y en beaucoup, des diplômés qui s’inquiètent de l’IA. Surement tous des idiots, comme moi.

Voir tous ses commentaires (20 par page)


Publicité


Publicité



Palmarès

Publicité


Agoravox.tv