• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Signaler un abus

perlseb 27 juillet 2023 22:20

@Jean Dugenêt
On peut facilement trouver des exemples de ce que l’IA peut faire dès aujourd’hui, par exemple en cherchant des vidéos de noms de boites qui travaillent dans l’IA (taper Deepmind dans Youtube en donnera un certain nombre).
Mais plus que les exemples, ce qu’il faut, c’est bien comprendre comment la machine se débrouille (en apparence, très mal par rapport à un humain) : ce qu’on lui donne en entrée, les règles parfois très simplistes pour qu’elle s’améliore, et le champ immense des possibilités qu’elle peut essayer (tel un bébé sans parent qui ne sait rien du monde) . Et « petit à petit », elle va progresser. Pour jouer au go de manière « intuitive » (trop de possibilités pour tester tous les coups à ce jeu), elle jouera simplement des millions de parties contre elle-même (en quelques heures) pour être meilleure que n’importe quel humain. Et elle « créera » des coups gagnants que les humains considéraient jusque là à tort comme mauvais.
Certains considèrent que la machine est très bête et essaye toutes les possibilités mais ce n’est pas le cas. Son « cerveau » minuscule se forme et en tant qu’humain, on ne comprendra plus comment elle effectue ses choix (boite noire, cerveau formé, coups « intuitifs » qui répondent immédiatement et souvent parfaitement à une situation, même rencontrée pour la première fois, mais pas toujours non plus : un peu comme nous). L’humain fonctionne un peu pareil (nous progressons beaucoup avec nos erreurs et ne savons pas toujours quoi faire dans une situation inédite).

Pour les réseaux neuronaux évolutifs, il s’agit juste de dire que l’apprentissage ne s’arrête jamais (comme pour notre cerveau).

Vous avez raison, on imite très mal le cerveau humain (on sait créer pas mal de neurones mais beaucoup moins de connexions entre. Par contre, les neurones artificiels ont des réponses plus complexes, la fonction n’est pas binaire). Mais est-ce que les avions imitent parfaitement les oiseaux ? Et pourtant, ils volent. On ne juge pas l’IA par sa similitude à notre cerveau, mais par l’étendue des problèmes qu’elle peut résoudre.

Ce qui est inquiétant, c’est l’avancée rapide, très rapide même. On peut citer des vieux exemples d’IA qui interprétaient très mal des images mais il faut dire 2 choses : elles finissent par être aussi bonnes que nous en quelques dizaines d’années de recherche alors que l’humain est le résultat de quelques millions d’années d’évolution ou sa survie dans l’écosystème dépendait de cette capacité fondamentale (normal qu’on soit fort). Aujourd’hui, il vaut mieux éviter de dire qu’elles sont meilleures sur des sujets pointus (interprétation de radiographies, par exemple).

Alors on peut parler de l’absence d’émotions (etc...), mais faut-il en mettre justement ? N’est-ce pas cet ajout qui la rendrait dangereuse en lui donnant une volonté propre ? Doit-on chercher à imiter l’homme ou doit-on plutôt garder l’IA sous forme d’outil limité volontairement ? A mon avis, si les IA commencent à faire le métier des ingénieurs, l’humanité devra se poser une question : est-ce qu’on veut maitriser tous nos processus et rester autonomes en tant qu’humains, ou est-ce qu’on accepte de ne plus comprendre comment les objets que nous utilisons fonctionnent (ou comment ils sont fabriqués) ? Dans le capitalisme, on utilisera l’IA au maximum de ses possibilités (retour sur investissement), ce qui signera la fin de l’homme... Même si l’IA ne cherche pas à nous détruire, nous nous détruirons nous-mêmes par manque de motivation intellectuelle (de toutes façons, même en faisant des efforts, on ne pourra pas comprendre ce qui nous entoure, et on ne pourra pas se rendre utile, alors pourquoi réfléchir ?).



Palmarès