• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Les commentaires de perlseb



  • perlseb 4 août 2023 22:14

    La guerre contre les français dure depuis plus de 2 siècles (depuis la révolution de 1789).

    Il ne faut pas oublier de citer les allocations familiales dans cette destruction : cela permet de diluer fortement les rares insoumis qu’étaient les gaulois par ceux qui sont prêts à tout pour de l’argent.

    L’oligarchie apatride a un énorme avantage : si un pays prend conscience de sa soumission et veut changer son destin, alors l’oligarchie pilote tous les autres pays encore esclaves pour le détruire avec tous les moyens à disposition.

    Un exemple parmi d’autres :avant l’euro, le franc était constamment attaqué sur les marchés : ce qui n’était ni le cas de la livre (évidemment soutenue par le dollar) ni du mark.



  • perlseb 4 août 2023 19:41

    @Bendidon ... Wind Pilgrimer
    Alors, comme ça, on va encore voter NUPES aux élections !
    Ça marche aussi avec tous les autres partis politiques.



  • perlseb 4 août 2023 19:20

    Merci pour les améliorations par rapport à l’article précédent.

    Je crois que la machine n’a absolument pas besoin d’être généraliste (intelligence générale semblable à l’homme) pour nous « dépasser » : on peut avoir des machines qui dépassent tous les humains au jeu de go et aux échecs (c’est déjà le cas), mais on peut avoir des machines qui surpassent tous les médecins dans le diagnostic des maladies. Car une machine pourra se mettre à jour constamment (lire tous les articles de médecine au moment de leur publication), utiliser beaucoup plus de données d’entrée pour faire son diagnostic (ADN, antécédents du malades, ensembles des données de santé et expériences disponibles dans le monde selon des critères proches, etc...).

    Et dans tous les domaines « intellectuels », il n’est pas impossible qu’en s’y attelant, une machine puisse dépasser les hommes dans chacun de leur métier.

    Il faut aussi ajouter au sujet de l’adaptabilité des humains qu’on ne transforme pas un avocat en médecin en une nuit. Il y aura beaucoup de déception pour les métiers remplacés : Lee Sedol (champion de Go) a pris sa retraite après avoir été battu par la machine. Comment se reconvertir quand sa formation a duré des années et qu’elle est rendu caduque ?

    A l’inverse, pour l’adaptabilité des machines (réseaux neuronaux tel Alphazéro), elles peuvent devenir meilleur que n’importe quel humain aux échecs en jouant 5h contre elle-même pour former leur réseau de neurones. Et le même réseau de neurones vierge (avant formation : Deepmind s’intéresse beaucoup à l’intelligence générale) peut devenir meilleur que n’importe quel humain au go en quelques jours. Alors c’est vrai, une fois le réseau formé (et non réinitialisé) on aura soit un joueur d’échec exceptionnel, soit un joueur de go exceptionnel mais quel humain peut changer de spécialité en une nuit (ou même une semaine) ?

    L’intelligence générale et les émotions dans les machines ne sont, à mon avis, pas des buts à atteindre pour les machines (c’est peut-être même dangereux). Mais dépasser tous les humains avec des machines spécialisées dans un domaine, je ne crois pas que ce soit impossible (sans même parler d’intelligence). Tous les métiers sont en danger car nous sommes tous des spécialistes. C’est d’ailleurs un peu l’histoire du fordisme : Ford employait des ouvriers moins qualifiés et les payait mieux. Le travail est devenu nettement moins intéressant (répétitif) et cela a facilité la tâche par la suite pour remplacé les hommes par des machines. La spécialisation intellectuelle de l’homme pour son travail peut aboutir au même phénomène.



  • perlseb 4 août 2023 14:35

    @titi
    Pas besoin de lithium pour des batteries stationnaires (elles peuvent être lourdes, : par exemple des batteries à métal liquide avec des éléments abondants).
    Pour les panneaux solaires, l’achat à la Chine est lié à notre désindustrialisation, la très grande majorité des panneaux (96%) ne contient pas d’éléments rares (seule la technologie couche mince en contient : indium, gallium,...).
    De plus, ils sont recyclés à plus de 90%.
    La surgénération pourrait être une solution (pour contourner la pénurie de matière première nécessaire) si elle était maitrisée. Et je ne sais pas si on peut dire qu’on maitrise l’énergie nucléaire aujourd’hui... C’est un peu comme l’énergie de fusion : sa complexité, même maitrisée, rendra son cout rédhibitoire. Globalement, ce qui est complexe est cher et si c’est dangereux, ça finit un jour ou l’autre par péter.



  • perlseb 3 août 2023 14:20

    @titi
    Faut-il le rappeler, aucune entreprise privée ne peut assurer les centrales nucléaires en cas d’accident, seul l’état (donc nous évidemment) peut le faire.
    Faut-il le rappeler, les interventions armées de la France pour sécuriser ses apports en uranium sont pris sur le budget ... de l’armée, et n’augmente donc pas le prix du kWh comme il serait logique de le faire.
    Faut-il le rappeler, on se moque totalement de ce qui se passera pendant des milliers d’années des déchets nucléaires à vie longue stockés dans le sous-sol. (Peu importe si des nappes phréatiques sont souillées pendant des millénaires et donc inutilisables car hautement cancérigènes).
    Donc oui, le nucléaire est, compte tenu de tous ces oublis, à peine plus cher que le solaire (et plus pratique car non variable), mais si on prenait réellement en compte ce qu’il coute à la société (sans même parler d’accident pendant l’exploitation), c’est une énergie pour les fous.



  • perlseb 30 juillet 2023 23:46

    @Jean Dugenêt
    Vous avez également raison. Les réseaux neuronaux sont extrêmement inefficaces énergétiquement par rapport aux cerveaux, comme les avions par rapport aux oiseaux.
    C’est aussi pourquoi l’IA a été « abandonnée » un temps avant de revenir à la mode : on n’avait tout simplement pas la puissance de calcul pour qu’elle soit réellement utile.
    Mais maintenant, ces IA (ultra-inefficaces, ok) sont capables de reconnaissance vocale, capables de réponde de manière très propre (à défaut d’être des réponses justes) à des questions (certains profs disent qu’ils détectent la triche avec ChatGPT car il n’y a pas de fautes).
    On sait aussi que les IA « comprennent » ce qu’on leur demande : leurs réponses textuelles (mêmes fausses) ne sont pas hors sujet et leur génération d’image (ou de programme) correspond bien à la demande...
    En associant à ces nouvelles capacités des réseaux neuronaux une mémoire gigantesque bon marché, une capacité de calcul phénoménale, c’est quand même un peu inquiétant pour la suite...
    La partie « neuronale » des machines sera surement inférieure au cerveau humain pour très longtemps (en terme de nombre d’entités, de liens, de consommation) mais l’association avec des choses qu’elles font objectivement mieux (mémoire précise et calcul) pourra supprimer beaucoup de métiers, donc faire gagner beaucoup d’argent, donc être diffusée plus largement, donc supprimer encore plus de métiers... L’IA d’aujourd’hui sert déjà à construire des puces pour l’IA plus puissantes. Bientôt on perd le contrôle, la connaissance ? C’est là que je trouve qu’il vaut mieux s’inquiéter (peut-être pour rien) plutôt que de dire que l’IA est nulle, on sera toujours les plus forts.



  • perlseb 30 juillet 2023 21:29

    @Tolzan
    Je suis entièrement d’accord avec vous. La science et la technique sont des constructions collectives sur des millénaires d’évolution : personne ne devrait pouvoir s’en approprier la propriété ou un bénéfice privé. Mais c’est bien tout le contraire qui se passe.
    Il y a des projets réellement ouverts (Bloom par exemple en IA), beaucoup en impression 3D également. Mais je crois que les systèmes propriétaires qui se font beaucoup d’argent ont évidemment l’argent de faire croire aux masses qu’ils sont cool. Pour moi, concentration des richesses = concentration du pouvoir = fascisme. Et c’est pourquoi je crois que la progression rapide de techniques dans un monde de plus en plus inégalitaire ne va pas du tout nous apporter le bonheur. Je pense plutôt à un génocide façon Covid puissance 10 (un gain de fonction qui « réussit » mieux, ou un « vaccin » un peu plus « efficace »). Évidemment, je souhaite me tromper.



  • perlseb 30 juillet 2023 18:22

    @Jean Dugenêt
    pour des jeux plus compliqués comme les échecs et le jeu de go je n’ai jamais entendu parler de mise en oeuvre de processus d’apprentissage.

    Ce sujet est très intéressant. Car Stockfish s’est fait battre à plate couture par Alphazero. Hors Stockfish était un code monstrueux écrit par des développeurs chevronnés (algorithme) alors qu’Alphazero n’était qu’un réseau de neurones qui a joué contre lui-même pour progresser (aucun code si l’on excepte les règles du jeu, apprentissage automatique). D’ailleurs, ce réseau de neurones lui confère un avantage énorme : l« intuition » qui lui permet d’être meilleur en analysant beaucoup moins de coups : Selon DeepMind, AlphaZero utilise une recherche par arbre de Monte Carlo et examine environ 60 000 positions par seconde, contre 60 millions pour Stockfish. Depuis 2020, Stockfish intègre un réseau de neurones et s’est bien amélioré (hybride programme / réseau de neurones).

    La conclusion : le travail de programmeurs chevronnés dans un domaine pointu (programme complexe de Stockfish) annihilé par une machine qui joue contre elle-même des millions de parties en quelques heures (pour former son réseau de neurones). Sans parler de l’efficacité énergétique du réseau neuronal (« intuition ») par rapport à l’algorithme. Beaucoup de programmeurs sont déjà conscients qu’ils vont perdre leur boulot (surtout depuis la démonstration ChatGPT).



  • perlseb 29 juillet 2023 14:45

    @Jean Dugenêt
    Je parle de réseaux neuronaux parce que c’est comme cela qu’on les appelle. J’ai fait des études techniques et j’ai eu, en tant qu’électricien généraliste, une formation aux réseaux neuronaux.
    Ne cherchez pas à comparer les réseaux neuronaux de l’IA avec le cerveau, on dit bien que les avions ont des ailes et pourtant il n’y a que très peu de rapport avec une aile d’oiseau.
    Ce qui compte, c’est le résultat de ces techniques (car il y a des réseaux neuronaux ultra-simples, d’autres avec de nombreuses couches de « neurones » et/ou plusieurs types de « neurones », sans parler des interfaces d’entrées-sorties avec le réseau neuronal qu’il ne faut pas négliger : comment on codes les signaux...).
    Les réseaux neuronaux de l’IA ne cherchent pas à imiter parfaitement un cerveau humain, mais après avoir disséqué et étudié ce cerveau humain avec les moyens actuels (il recèle surement bien plus que ce que l’on sait aujourd’hui) et bien les scientifiques se sont dits : « tiens, si on créait des entités connectées et qu’on leur envoyait des signaux (entrées) lors d’une phase d’ »apprentissage« pour que les poids de chacune des connexions convergent vers des valeurs qui donnent toujours les bonnes réponses en sortie (sorties fonction d’entrées connues dans cette phase d’apprentissage), que se passera-t-il une fois qu’on lui présentera quelque chose d’inconnu (non appris) en entrée ? ».
    Et la réponse était un succès : la machine a « appris », elle donne des réponses d’autant plus fiables que le jeu de tests (lors de l’apprentissage) est fourni. Et on a trouvé des applications immédiates : reconnaissance vocale (à l’époque, pour un vocabulaire très limité) dans des environnements de production ultra-sales (claviers inutilisables)... Rudimentaire ? Oui, mais rien à voir avec des algorithmes qu’on ferait tourner à toute allure. On donne une entrée dans une « boite noire » et on obtient une réponse en sortie : on ne peut rien expliquer et ça peut être faux (apprentissage insuffisant ou mauvaise conception du réseau selon le problème : pas de convergence, etc...).

    Sachez que les réseaux neuronaux ne sont pas uniquement logiciels (calculs de simulation d’entités reliées) mais peuvent également être intégrés dans une puce pour une exécution beaucoup plus rapide. Évidemment, ceux qui sont intégrés dans une puce ne sont pas évolutifs.

    Tout ça pour dire que si vous vous intéressez vraiment à l’IA, les résultats (dans de nombreux domaines) commencent à être troublants. Je crois qu’on pourrait dès à présent, remplacer de nombreux costards-cravates par de l’IA, car, qu’on le veuille ou non, la plupart des métiers « intellectuels » ne sont pas ultra-créatifs. Mais même si les humains sont des loups entre eux, on n’hésitera pas à critiquer une machine qui ferait un meilleur boulot pour son manque d’« humanité » afin de sauver sa place. Cependant, si un jour, un service inhumain (pompe à essence en libre-service) fait le boulot à n’importe quelle heure (et moins cher pour l’IA), il n’est pas impossible qu’on se passe de la « chaleur » humaine.



  • perlseb 28 juillet 2023 20:58

    @Jean Dugenêt
    ce fut surtout un échec
    Non je ne crois pas. Je crois même que les métiers manuels résisteront plus longtemps à la concurrence des machines.
    Le gros problème dans l’histoire, ce n’est même pas de prédire le futur de l’IA sur un coin de bar, mais d’accepter qu’une fraction infime de la population puisse potentiellement décider du sort de l’humanité sans avoir à rendre des comptes, un peu comme les laboratoires qui travaillent sur les gains de fonction de virus.
    Et si je faisais partie de ces décideurs-dieux, je mettrais beaucoup d’argent sur la table pour ne pas avoir de bâtons dans les roues, par exemple en payant des experts peu scrupuleux pour qu’ils expliquent à la masse que le risque est parfaitement nul, ou complètement maitrisé.



  • perlseb 28 juillet 2023 14:12

    @Jean Dugenêt
    Si vous êtes croyant (que l’homme est indépassable, son cerveau inégalable, etc...) alors il ne peut pas y avoir de discussion.

    De la même manière qu’on a imité grossièrement les oiseaux pour construire des avions, on construit des réseaux neuronaux qui imitent grossièrement notre cerveau.
    D’où croyez-vous que viennent la « phénoménale intelligence » de l’humain, sa « créativité fabuleuse », sa capacité d’adaptation « hors norme » ? D’un ensemble de neurones connectés entre eux. Nos pensées sont des messages, certes complexes, entre neurones. Vous pouvez vous rassurez en essayant de croire qu’il y a quelque chose d’autre que les machines n’auront jamais (âme, conscience, ...). Mais ce n’est peut-être pas le cas (je n’ai pas la réponse) : il n’y a peut-être rien d’autre que des neurones...

    Rassurez-vous autant que vous voulez sur la supériorité de l’homme, l’IA continuera d’avancer et avec une telle assurance, ça sera pour le pire. Mais que peut-on vraiment attendre de l’homme et de son arrogance ?

    J’ai réagi sur cet article parce ce que les idiots utiles qui critiquent l’IA tombent tous dans le même panneau (croire que l’IA est l’exécution d’un algorithme figé qui s’exécute très rapidement : « on essaie tous les coups »). Non, l’IA (avec les réseaux neuronaux) c’est parfois une réponse de la machine qui choque les concepteurs, une réponse à laquelle on ne s’attend pas et qu’on ne sait pas expliquer.



  • perlseb 27 juillet 2023 22:20

    @Jean Dugenêt
    On peut facilement trouver des exemples de ce que l’IA peut faire dès aujourd’hui, par exemple en cherchant des vidéos de noms de boites qui travaillent dans l’IA (taper Deepmind dans Youtube en donnera un certain nombre).
    Mais plus que les exemples, ce qu’il faut, c’est bien comprendre comment la machine se débrouille (en apparence, très mal par rapport à un humain) : ce qu’on lui donne en entrée, les règles parfois très simplistes pour qu’elle s’améliore, et le champ immense des possibilités qu’elle peut essayer (tel un bébé sans parent qui ne sait rien du monde) . Et « petit à petit », elle va progresser. Pour jouer au go de manière « intuitive » (trop de possibilités pour tester tous les coups à ce jeu), elle jouera simplement des millions de parties contre elle-même (en quelques heures) pour être meilleure que n’importe quel humain. Et elle « créera » des coups gagnants que les humains considéraient jusque là à tort comme mauvais.
    Certains considèrent que la machine est très bête et essaye toutes les possibilités mais ce n’est pas le cas. Son « cerveau » minuscule se forme et en tant qu’humain, on ne comprendra plus comment elle effectue ses choix (boite noire, cerveau formé, coups « intuitifs » qui répondent immédiatement et souvent parfaitement à une situation, même rencontrée pour la première fois, mais pas toujours non plus : un peu comme nous). L’humain fonctionne un peu pareil (nous progressons beaucoup avec nos erreurs et ne savons pas toujours quoi faire dans une situation inédite).

    Pour les réseaux neuronaux évolutifs, il s’agit juste de dire que l’apprentissage ne s’arrête jamais (comme pour notre cerveau).

    Vous avez raison, on imite très mal le cerveau humain (on sait créer pas mal de neurones mais beaucoup moins de connexions entre. Par contre, les neurones artificiels ont des réponses plus complexes, la fonction n’est pas binaire). Mais est-ce que les avions imitent parfaitement les oiseaux ? Et pourtant, ils volent. On ne juge pas l’IA par sa similitude à notre cerveau, mais par l’étendue des problèmes qu’elle peut résoudre.

    Ce qui est inquiétant, c’est l’avancée rapide, très rapide même. On peut citer des vieux exemples d’IA qui interprétaient très mal des images mais il faut dire 2 choses : elles finissent par être aussi bonnes que nous en quelques dizaines d’années de recherche alors que l’humain est le résultat de quelques millions d’années d’évolution ou sa survie dans l’écosystème dépendait de cette capacité fondamentale (normal qu’on soit fort). Aujourd’hui, il vaut mieux éviter de dire qu’elles sont meilleures sur des sujets pointus (interprétation de radiographies, par exemple).

    Alors on peut parler de l’absence d’émotions (etc...), mais faut-il en mettre justement ? N’est-ce pas cet ajout qui la rendrait dangereuse en lui donnant une volonté propre ? Doit-on chercher à imiter l’homme ou doit-on plutôt garder l’IA sous forme d’outil limité volontairement ? A mon avis, si les IA commencent à faire le métier des ingénieurs, l’humanité devra se poser une question : est-ce qu’on veut maitriser tous nos processus et rester autonomes en tant qu’humains, ou est-ce qu’on accepte de ne plus comprendre comment les objets que nous utilisons fonctionnent (ou comment ils sont fabriqués) ? Dans le capitalisme, on utilisera l’IA au maximum de ses possibilités (retour sur investissement), ce qui signera la fin de l’homme... Même si l’IA ne cherche pas à nous détruire, nous nous détruirons nous-mêmes par manque de motivation intellectuelle (de toutes façons, même en faisant des efforts, on ne pourra pas comprendre ce qui nous entoure, et on ne pourra pas se rendre utile, alors pourquoi réfléchir ?).



  • perlseb 27 juillet 2023 19:05

    @Jean Dugenêt
    l’homme qui sait s’adapter, négocier, créer...
    Il y a beaucoup d’études qui montrent que l’IA sait s’adapter. Si c’est le but recherché, alors on crée des réseaux neuronaux évolutifs, non figés, donc avec un apprentissage perpétuel (c’est juste un paramètre que l’on choisit).
    La vidéo est longue. Je préfère lire quelques commentaires pour me faire une idée avant de perdre trop de temps. Il y en a de 2 sortes : des religieux anthropocentristes qui sont sûrs que la machine ne dépassera jamais l’homme de même que l’homme est forcément au-dessus de tous les animaux (normal quand on est le nombril du monde). Et il y a quelques commentaires un peu plus posés qui sont agacés par ce personnage qui traitent des gens connus d’idiots (Elon Musk entre autre). Je ne suis pas un adorateur d’Elon Musk (la science ne nous sauvera pas de notre organisation sociale pitoyable, elle ne fera, au contraire, qu’accentuer le totalitarisme ambiant), mais je ne le prendrai pas pour un idiot quand même.
    L’IA est un excellent candidat à la fin de l’humanité et je crois que, plutôt que d’affirmer avec assurance qu’elle n’existe pas, l’intelligence humaine serait justement d’être prudent, extrêmement prudent et d’essayer d’anticiper les ravages que l’IA peut faire avant qu’il ne soit trop tard. Et tant mieux si on est trop prudent. Mais l’assurance, ça c’est vraiment de la bêtise crasse, et c’est avec cette assurance que nous détruisons notre seule planète habitable.



  • perlseb 27 juillet 2023 18:26

    C’est vrai, l’intelligence artificielle n’existe pas, du moins, pas encore. Par contre, c’est également le cas de l’intelligence humaine : elle n’existe pas non plus. Quand on voit le monde tel qu’il est, avec ses guerres et sa misère, la course qu’il prend « grâce » à l’homme (auto-destruction), alors clairement l’homme est l’animal le plus bête sur Terre (l’homme est capable de croire que certains papiers ont une grande valeur, alors qu’aucun animal ne se laisse berner par une telle ineptie).

    Alors maintenant, si on définit l’intelligence comme la capacité de créer ou de trouver des choses qui rendent célèbre l’abruti à la base de la création ou de la découverte, alors la machine va bientôt nous dépasser et très largement. Simplement, elle se moquera d’être célèbre. Il y a donc tout lieu de penser que certains hommes utiliseront l’IA comme un nègre pour être eux-mêmes célèbres (comme beaucoup d’artistes le font avec d’autres hommes qui travaillent dans l’ombre une fois leur notoriété établie).

    Donc si j’avais des tendances esclavagistes (comme la plupart des hommes et surtout de ceux bien payés qui travaillent dans l’IA), alors je n’hésiterais pas à dire que l’intelligence artificielle n’existe pas, pour que mes découvertes de demain (et donc mon immense mérite et ma célébrité) ne soient pas remises en cause.

    Pour ce qui est des explications de l’article, l’IA est aujourd’hui à des années lumières. Quand on parle d’IA, on parle essentiellement de réseau neuronal associé à un apprentissage profond (et pas d’algorithme). C’est vrai, actuellement les réseaux neuronaux créés artificiellement sont plus simples que notre cerveau et consomment beaucoup plus d’énergie. Cependant, nous n’exploitons qu’une infime partie de notre cerveau pour la réflexion pure (« intelligence »), la machine ne fait que s’améliorer et elle peut apprendre en quelques jours ce que ... nous ne pouvons pas apprendre (trop de données pour une seule vie).

    Donc l’avenir est écrit : l’homme sera très vite plus bête que la machine et, avec un système aussi pyramidal, on peut s’attendre à quelques épidémies (la faute à pas de chance) pour liquider un maximum de tous ces pollueurs inutiles... Et si j’étais décideur (en plus d’être négrier), alors je dirais avec assurance que l’IA n’existe pas, et qu’elle n’existera jamais : vous pouvez dormir tranquilles.



  • perlseb 17 juin 2023 19:18

    @Opposition contrôlée
    En fin de compte, ambition (=espoir) et peur sont presque équivalents. La peur de mourir d’un virus mortel peut être associée à l’espoir de ne pas en mourir (et accepter n’importe quoi pour réaliser cet espoir). Un système pyramidal prend bien soin de laisser à chacun un peu d’espoir (par exemple en médiatisant au maximum des pauvres qui réussissent) sinon personne n’accepterait d’être larbin. Finalement c’est effectivement l’espoir de vouloir s’en sortir qui crée le larbin et donne le pouvoir à la tête. Quand on n’espère rien, on est libre et ingouvernable.

    Et rouler les gens en leur donnant de faux espoirs n’est pas si dangereux : car ce n’est qu’en vieillissant qu’ils constatent qu’ils se sont fait rouler : mais les vieux ne sont pas agressifs, on peut même les piquer pour leur bien, ils en redemandent.

    Il y a quand même un autre problème. Si la société ne créait aucune peur et forcément peu d’espoirs (ce qui serait la normalité en somme, ce qu’un esprit sain devrait recherché), alors la majorité serait amorphe, insatisfaite. Pour moi, c’est une forme de sadisme, d’impuissance (de décadence) : la misère des uns fait la motivation des autres. Et un exemple concret est l’explosion de l’URSS : pas de prostitution, pas de SDF ou de chômeurs avant la dislocation, mais cette normalité n’est pas motivante, beaucoup ont déchanté avec le capitalisme (et ont permis à d’autres d’être plus motivés).

    Ma conclusion, c’est le sadisme qui règne dans un système pyramidal. Un chef ne pourra jamais être bon, car il faut être fou (ou sadique) pour croire qu’on va bien mener les autres en commençant par leur supprimer ... leur liberté.



  • perlseb 15 juin 2023 12:25

    @Lynwec
    Bien évidemment que l’argent n’existe que dans nos têtes. Empilez une tonne de lingots d’or ou de billets et attendez le résultat de tout ce fric : il ne se passera rien du tout, aucune création, aucune production, aucun service.
    C’est notre endoctrinement qui nous fait croire à la valeur de l’argent.

    D’ailleurs tout le monde aime le fric, comme le dit l’auteur car le fric qu’on vous « donne », que vous gagnez sans travailler (c’est-à-dire en volant l’autre de manière légale ou non), c’est un travail concret et utile de la part d’un autre que vous pourrez acquérir sans avoir travaillé vous-même : le fric est la légitimation du vol et du moindre effort. Chacun voudra en avoir un maximum (pour disposer du maximum de services de la part des autres) en se fatiguant le moins possible (en donnant le minimum de services aux autres).

    Et c’est bien là la magie de l’argent : certains en gagnent énormément sans rien créer d’utile ou d’intéressant (actionnaires), d’autres en s’amusant à faire un métier qui les passionne (parfois peu utile à la société), d’autres encore doivent travailler dur sans aucune reconnaissance pour en avoir un peu, et pour finir, d’autres sont exclus par le système et doivent mendier pour en récolter également très peu (quand ils ne deviennent pas SDF).

    Dans une société saine, on supprimerait l’argent, on décréterait qu’une heure de travail honnête vaut une heure de travail honnête et on ne chercherait pas à accabler les idiots ou les maladroits : on essaierait d’intégrer tout le monde selon ses capacités pour n’exclure personne et on se partagerait équitablement notre travail (selon ses propres apports honnêtes : temps de travail effectué) sans le facteur limitant absurde qu’est la monnaie. Mais évidemment, il faudrait passer d’une société basée sur le vol et la soumission à une société civilisée basée sur la coopération. C’est toute l’éducation qu’il faut changer... C’est possible, car l’homme est un mammifère intelligent qui peut apprendre des choses aussi absurdes et artificielles que ... l’argent. Mais ce n’est pas du tout dans l’intérêt de nos décideurs qui ont volontairement créé ce système injuste.



  • perlseb 12 juin 2023 12:56

    @agent ananas
    C’"était extrêmement grave en 2020 de compter les morts (de personnes âgées qu’on a volontairement laissées mourir par abandon de soin). Aujourd’hui, c’est pas grave (même si ce sont des jeunes qui auraient été en bonne santé sans vaccination).
    C’est le ministère de la vérité qui juge de la gravité d’une situation. certainement pas des gens qui ne sont rien et qu’on peut injecter comme des cobayes.



  • perlseb 12 juin 2023 12:50

    @Lynwec
    C’est pas Djokovic mais No Vax, No Covid.
    Ce qui est marrant dans l’histoire, c’est comment les journalistes sportifs ont complètement occulté le sujet du Covid (risque d’être virés ?) et à quel point Djokovic a été torpillé complètement injustement pendant la période (comme tous les non vaccinés d’ailleurs). Il a été interdit de nombreux tournois, ce qui lui a fait perdre sa place de n°1 mondial, a permis à Nadal de lui passer devant sans avoir à lutter contre lui, et l’a empêché de s’entraîner correctement encore cette année (interdit aux USA)... Mais il prouve qu’il est en meilleure forme physique que des jeunes comme Alcaraz. Comme quoi, pour être en bonne santé, mieux vaut apprendre à se connaître soi-même en étant très vigilant que faire confiance de manière aveugle aux médecins qui gagnent leur vie sur vos problèmes de santé et qui par conséquent, n’ont pas du tout intérêt à ce que vous soyez en bonne santé (aucun revenu pour eux, médecine à la Knock).
    En ce sens, un vaccin comme le Covid, c’est la perfection « médicale » : vous injecter tout le monde (y compris les gens sans aucun risque) et vous rendez malades un grand nombre de personnes que vous allez traiter derrière (cancers, myocardites, ) : le gain est double. Vive la médecine !



  • perlseb 19 avril 2023 23:08

    @Claude Courty
    Pour moi, la condition humaine ça ne veut rien dire. Tout ou presque est acquis, un homme peut devenir beaucoup de choses avec les mêmes gènes.
    La pauvreté n’existe que parce les écarts existent. Si on prend l’exemple des français, beaucoup de pauvres d’aujourd’hui ont bien plus de confort que les riches d’avant. La seule question : est-ce que les écarts importants peuvent être justifiés (à une époque donnée) ?

    Ma réponse (politique) : non. Rien ne justifie qu’un génie gagne 2 fois plus qu’un maçon. Pour moi, le génie est déjà avantagé avant rémunération : il aura de la reconnaissance, un métier plus intéressant, il pourra prendre des meilleures décisions pour sa vie. Pourquoi l’avantager une fois de plus en le rémunérant mieux ? C’est ajouter de l’injustice à l’injustice. Nous ne sommes pas égaux, mais les génies ne savent et ne peuvent pas tout faire (génie ne veut pas dire doué en tout). Il n’y aurait que des génies, certains devraient quand même ramasser les patates. Et il faudrait les payer mieux que les autres parce qu’ils se dévoueraient à faire ce que les autres ne veulent pas faire : il faudrait donc compenser cette injustice dans le travail à capacité identique.

    Les pyramides ne sont pas inévitables, elles sont une construction (notre éducation basée sur l’obéissance nous les fait accepter comme s’il n’y avait que cette possibilité). On a été capable d’inventer la démocratie mais on ne l’a jamais vraiment mis en pratique. On a seulement essayé de supprimer le sens originel du mot. Si on remplace le « on » par ceux qui sont à la tête de la pyramide, qui prennent les décisions pour tout le monde et qui profitent de la pyramide, c’est assez logique. Toute pyramide doit endormir la base et l’espoir (individuel) est la solution pour cet endormissement.

    Si le système pyramidal est sans espoir dans son ensemble et ne produit que guerres, crises et soumission en bien plus grand nombre que liberté (seule la tête est libre), il tient uniquement grâce à l’espoir (aussi stupide soit-il) qu’on réussit à implanter dans chacun de ses esclaves. Quant à la tête, soit elle n’a aucune morale, soit elle s’imagine vraiment qu’elle mérite plus que les autres (et je la plains dans les 2 cas). Pour moi, aucune place n’est enviable dans un système pyramidal quand on est conscient, c’est juste une très mauvaise généralisation du système animal dominant-dominé, rien à voir avec ce que devrait être une civilisation de mon point de vue. D’ailleurs, dans le règne animal, la sélection naturelle conduit à une amélioration des espèces (pour leur survie). Chez l’homme, le système pyramidal ne conduit qu’à une décadence complète sur tous les plans, décadence qui conduit fatalement à des crises de plus en plus graves.



  • perlseb 18 avril 2023 21:50

    @Xenozoid
    Non, effectivement. La croyance n’est pas forcément liée à un espoir. Par contre l’espoir est toujours lié à une croyance.