J'ai trouvé l'homme le plus stupide du monde. Où plutôt, c'est lui qui m'a trouvé en pénétrant l'esprit de celleux dont je respectais le travail. C'est le Saitama de la connerie. Il existe sur notre planète. Il est réel. Et il s'appelle Eliezer Yudkowsky.
Notre langue n'est pas suffisament avancée pour exprimer l'intensité de son imbécilité, mais je vais faire de mon mieux. Tel l'horreur d'argile incapable de représenter Cthulhu, ce misérable texte ne parviendra pas à vous transcrire la totalité de l'épouvante dont j'ai pu être témoin dans les craquements de la raison.
Sa bêtise est rayonnante, elle crée une aura de sottise contaminant toustes celleux qui entendent ses idées. Rien que de parler de lui, je peux sentir le choc de mes neurones éclatant les uns après les autres sur le dessous de ma boite cranienne, se défenestrant pour y échapper. La disposition mentale de mes neurones: Borderlands 2: JE VEUX UNE BALLE DANS LA TÊTE
Il n'est pas con comme un balai. En comparaison, les balais forment une société de savants avec un journal scientifique du balayage à facteur d'impact plus grand que Nature. Yudkowsky est aussi intelligent qu'une brique est un superordinateur quantique.
Je pense qu'il est responsable d'une proportion non négligeable de la stupidité dans le monde. On pourrait le balancer sur un pays comme une arme de guerre qui rendrait la population locale stupide en un temps record.
Pour vous convaincre très facilement qu'il est le plus stupide d'entre nous:
-Il croit sincèrement, et a dit publiquement qu'il est un génie.
-Il a écrit une autobiographie à 21 ans dans laquelle il explique être le seul à pouvoir sauver le monde.
-Il pense qu'une guerre nucléaire est préférable à l'apparition d'une superintelligence.
-Il avance sérieusement comme idée l'avortement après la naissance.
-Une secte meurtrière rationaliste végan est apparue autour de sa fanfiction "Harry potter et les méthodes de la rationalité" (ce KAMOULOX EST RÉEL, ON VIT DANS LA TIMELINE OU CETTE PHRASE EST LA VÉRITÉ VRAIE JPP A CHAQUE FOIS QUE JE DIS CA JE SUIS A DEUX DOIGTS DE M'ÉVANOUIR D'EXASPÉRATION)
De la Bayes
Si vous avez entendu parlé de Bayes, ce n'est probablement pas grâce aux très intéressantes applications de nouveaux outils en inférence statistique. Malheureusement, c'est probablement parce que quelqu'un vous a dit qu'il pensait que la formule de bayes était un super fondement pour une épistémologie de toutes les connaissances. C'est principalement à cause de lui et du courant de stupidité qui le suit. L'épistémologie bayésienne c'est pour les bayesés de la tête. Vous voulez mettre un a priori positif sur l'arrivée de la singularité? Mettez plutôt une probabilité forte sur votre propre incompréhension des fondements de la statistique, de l'épistémologie, et puis de la vie tant qu'on y est.
Les gens qui font de la statistique bayésienne sérieusement ne se revendique pas de cette épistémologie à la con. Ils en ont très honte.
Andrew Gelman, un statisticien que j'admire et qui a le mérite d'appliquer à des problèmes réels les méthodes dont il parle: "We think most of this received view of Bayesian inference is wrong. Bayesian methods are no more inductive than any other mode of statistical inference. Bayesian data analysis is much better understood from a hypothetico-deductive perspective."
Politique!
La stupidité politique de Yudkowsky est aussi très intéressante, une liste de gens ou de sujets sur lesquels il a eu une grande influence:
-Les Effective altruists comme le fameux fraudeur Sam-Bankman Fried.
-Les Longtermists. Comme Nick Bostrom. (Ceux qui pensent que la seule chose importante c'est la survie de l'espèce humaine et donc que tout est justifiable si la fin est cette cause)
Le fasciste Curtis Yarvin qui est écouté par J.D Vance, le vice-président des État-Unis.
-Le milliardaire Peter Thiel qui a financé Facebook, Palantir, l'entreprise qui fabrique des IAs pour l'armée israélienne, et il a financé la dernière campagne de Trump.
En fait on pourrait résumer sa vision du monde par "Les IAs c'est très grave. C'est même le truc le plus grave qui puisse arriver." Sauf que les IAs, même si elles peuvent être parfois utiles, ne sont pas toutes puissantes. Elle ne vont pas développer leur identité propre par accident. La science fiction n'est pas une preuve. Oui, les IAs peuvent et font des dégâts. Mais je trouve ça extrêmement bourgeois de ne s'inquiéter que de cette conséquences existentielles.
Les IAs les plus inquiétantes selon moi ce sont les algorithmes de régression logistiques simples qui servent à mettre un score de risque aux personnes endettées. C'est quand la caf note les allocataire selon des critères qui précarisent encore plus. C'est quand les assurances calculent le prix de leur produits en fonction de votre état de santé. Ce sont des algorithme incroyablement peu sophistiqués, mais ils font des dégâts à une échelle bien plus grande qu'un hypothétique skynet. Il faut avoir un sens des priorités.
Si votre menace existentielle urgente ce n'est ni la précarité, ni la santé(physique ou mentale), ni le sexisme, ni le racisme, vous ne vous préoccupez alors en fait que de certaines existences.
Les priorités de ce gars:
My TIME piece did not suggest nuclear strikes against countries that refuse to sign on to a global agreement against large AI training runs. It said that, if a non-signatory country is building a datacenter that might kill everyone on Earth, you should be willing to preemptively destroy that datacenter; the intended reading is that you should do this even if the non-signatory country is a nuclear power and even if they try to threaten nuclear retaliation for the strike.
Quelle est l'origine de ma colère?
Je regarde tranquillement les dernière vidéos de Hank Green et dans l'une d'elle il parle pendant une heure et demi d'un livre de Yudkowsky: Hank Green: ChatGPT isn't Smart. It's something Much Weirder
Je regarde tranquillement Monsieur Phi (dont j'apprécie habituellement beaucoup le travail) faire une vidéo take-down d'une personnalité médiatique et je remarque une angoisse existentielle étrange dans son discours. Ce discours, je l'ai déjà entendu de milliardaire fous, de bandeurs d'IAs insupportables dans d'innombrables blogs et vidéos youtube. Monsieur Phi s'est laissé avoir par l'arrogance et le prestige Silicon Valleyien de Yudkowsky. J'ai vu qu'il le citait dans une conférence à laquelle il a participé et qu'il met un lien vers son blog dans la description de sa vidéo sur le bayésianisme.
Yudkowsky est ce que j'appelerai une antisource. Une bonne source c'est quelque chose qui apporte de la légitimité, de la crédilibilité à un propos, et cela permet de comprendre d'où vient l'origine de l'affirmation. Lui c'est l'inverse. Quand je le vois cité par quelqu'un, c'est que l'auteur ne sait pas vérifier ses sources ou est d'une crédulité sans nom. C'est une antipreuve qui me donne anticonfiance en ce que vous dites.
YUDKOWSCRINGE
Bon là c'est pas une critique très honnête mais je dois vous le partager.
Il est tellement cringe. CRRRRRRRRIIIIIIIIIIIIIIIIINNNNNNNNGGGGGGGEEEEEEEE
-Il a écrit qu'il a
acquired a sex slave … who will earn her orgasms by completing math assignments,
-Il a tweeté ça en réponse au chercheur Yann Lecun:
Yann's unfamiliarity with prior literature is clearly on display, here. Whether an intelligence being "submissive" suffices to make it easy-to-steer is a primary focus of my 1.8M-word BDSM decision theory D&D fic, which Yann apparently refuses to read
Précision: 1.8 millions de mots corresponds à peu près à 4000 pages.
-Il porte régulièrement des fédoras, dont un qui est doré.
-La manière qu'il a d'écrire est insupportable. Il est inutilement compliqué, ses textes sont remplis de mots sophistiqués qui ne servent à rien à part avoir l'air intelligent. La seule explication c'est qu'il doit être phénoménalement insecure.
Je tiens à préciser que je n'ai rien contre les pratiques BDSM, mais il passe son temps à inclure cette partie de sa vie dans son travail et c'est insup. Vous n'êtes pas obligé de partager votre vie sexuelle dans tout ce que vous écrivez.
Les racines finiront par guérir
J'espère que vous vous méfierez des idées qui viennent de près ou de loin de cet idiot ou de la galaxie rationaliste autour de lui. N'empoisonnez plus nos esprits avec ces conneries, on a déjà assez à faire avec la lutte contre le fascisme. Prenez les gens un peu au sérieux.
Si vous le citiez avant, disons qu'on vous pardonne. Disons que vous ne saviez pas. Il est grand temps de Changer d'avis.
Maintenant que j'ai vidé ce bouton de pus de mon esprit, je peux reprendre ma vie en attendant qu'il cicatrise.
Quelques liens sur le sujet:
Here Lies Humanity, Dead by Fancy Autocomplete
trees are harlequins, words are harlequins — bayes: a kinda-sorta masterpost
Eliezer Yudkowsky's Long History of Bad Ideas
Spectacle de Stand Up incroyable de Eddie Izzard pour vous nettoyer la tête:
Eddie Izzard - Dress To Kill Show in1999.
Votre fidèle serviteur l'Artefact.
Comme tout ce que j'écris ce texte est 100% sans chatgpt, j'ai même la flemme d'utiliser un correcteur orthographique