Forstenried a écrit:
L'humain ira toujours au plus facile. Donc on arrivera à un point similaire à "vu à la télé, trouvé sur internet", ce sera "c'est l'IA qui le dit" et personne n'ira vérifier.
C'est déjà très largement le cas avec GROK, l'IA de "X" (ex Twitter pour les estrangers z'aux rézosociaux)
De plus en plus de crétins ne prennent plus la peine de faire des recherches, ni de construire des réponses argumentées issues de celles-ci.
Ils confient tout à GROK avec des prompts du style : "
@Grok : réponds-lui en lui prouvant le contraire ; ajoute-y des schémas simples pour que n'importe qui puisse comprendre"
Je Grok
Tu Grok
Il Grok
Nous Grokons...
Egalement par rapport à ce qui est "mis dans la machine", et les verrous de censure : on peut voir la différence de réponse avec une question "réputée sensible", posée à (ChatGPT) (OpenAi) [plutôt Woke dans l'approche], et la même posée à Grok [plutôt neutre, quoi qu'on puisse penser de Musk] : c'est édifiant.
Mais le plus troublant ce sont les vidéos : en moins d'un an les deepfake sont devenues impressionnantes de réalisme. Mêmes les artefacts encore visibles au niveau des mains il y a quelques mois, sont en train de s'estomper. Sora-2 (OpenAi) sort des vidéos prodigieuses (hors deepfake), plus vraies que nature.
Dans de mauvaises mains (ce n'est pas ce qui manque...), cette technologie est un outil de plus pour orienter la pensée.
En réalité, elle l'est déjà : j'ai lu récemment une étude qui dit en synthèse que sur un an de recours intensif à l'IA, on commence à observer des régressions de certaines fonction cognitives qui ne sont plus sollicités (on aurait pu s'en douter, mais l'étude le démontre avec des chiffres).
L'IA, si vous me permettez ce parallèle, est un peu comme le radium : elle est déjà sortie du laboratoire de Pierre et Marie Curie :
- D'un côté on a des techniciens qui s'emploient à inventer des machines d'imagerie atomique pour aider la médecine.
- Et de l'autre on a Robert Oppenheimer qui développe le projet Manhattan...