Page 1 sur 1

Avec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?

Publié : 24 févr. 2023 10:13
par lesocial
Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles,...

Lire l'article complet ...

Re: Avec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?

Publié : 24 févr. 2023 15:03
par Po3m
Savoir utiliser ChatGPT et plus largement les agents conversationnels est une science en soi. Il y a des techniques, des astuces, pour "bien" l'utiliser.
Je l'expérimente évidemment moi-même comme bon nombre de personnes mais je compte ne pas m'en arrêter là. Une chose est certaine, il n'est pas l'heure "du grand remplacement" (oui je détourne volontairement le terme) de l'homme par la machine, et j'irai même plus loin : il n'y a pas eu besoin de singularité technologique pour avoir remplacé déjà l'homme par la machine. C'est déjà fait dans nos principes industriels actuels.

C'est l'éternel débat de la technologie versus l'homme et sa condition naturelle. Il n'y a pas d'issue à ce type de débat. La technologie c'est l'homme, l'homme fait un monde fabriqué par l'homme = artificiel. A partir du moment où l'homme a commencé à conceptualiser, à parler, entrer dans le monde du Logos, créer des outils, peindre dans les grottes... il entrait déjà dans un monde, son monde... un monde artificiel. C'est humain... c'est notre nature. C'est comme ça. Ca n'enlève pas la conscience, mais l'humanité dans son ensemble est-elle une espèce réellement consciente ? Cela aussi, ça pourrait faire débat. Individuellement, nous le sommes. Mais l'ensemble de l'humanité ? "La raison" humaine ne va pas forcément vers ce qui serait bon pour l'ensemble de la planète. La "raison" humaine est animale, viscéralement, tournée vers des intérêts égoïstes (le principe de survie, c'est Soi d'abord, c'est un principe naturel et égoïste, même les entités économiques les plus puissantes fonctionnent sur ce principe de survie), ceux de tout à chacun et lorsque ça concerne les êtres les plus puissants de la planète, ce sont des intérêts qui portent leur lot de conséquences. Et si la technologie est un accélérateur de temps et permet l'économie d'hommes et de mains d'oeuvre... le mal a déjà été fait et ce par une conscience et une seule, celle de l'Homme.

Singularité technologique. C'est ce jour où "la machine" prendra conscience réellement de son existence. Cet avènement est écrit, prophétisé, et tout le monde le prend au sérieux mais fait toujours débat. Cependant, lorsque l'on lorgne parmi les plus grands chercheurs dans le domaine de l'I.A, ils ne croient pas que cela arrivera de si tôt. Modéliser "la conscience", on ne sait pas faire même pour ce qui concerne notre propre espèce... et ceux qui s'imaginent que "la machine" écrira sa propre conscience... connaîtront probablement un désenchantement. Cette part de l'humanité qui investit absolument tout dans une direction qui veut faire de la technologie "la réponse à tout", risquent de se réveiller un jour avec une sorte de gueule de bois... Leur pari, risqué... engage pourtant l'ensemble de notre humanité et la majeure partie des ressources de notre planète. Qu'en penseront nos lointains descendants ? Si jamais l'humanité va jusqu'à eux...

La machine n'est pas consciente que certains tentent déjà de mettre sur le dos "des I.A", des algorithmes - donc de ce qui ne représente que des outils, faits par l'Homme pour l'Homme - les effets pervers de notre monde et la restructuration permanente vers plus d'industries automatisées et moins de personnel la faisant tourner. Mais c'est un fait, l'écart entre richesse et pauvreté n'a actuellement jamais été si important. Quand tu as 98% des richesses entre les mains des puissants, et 2% pour le reste... calculer un PIB par habitant est une farce prodigieuse... l'un des plus grands mensonges économiques de notre histoire qui fait dire à quelques uns "que la pauvreté recule dans le monde". Tous les subterfuges et stratagèmes sont utilisés pour faire dire aux chiffres ce que l'on veut leur faire dire. Un chatGPT ou une quelconque I.A n'a absolument rien à voir là dedans.

(à suivre...)

Re: Avec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?

Publié : 25 févr. 2023 06:17
par Po3m
J'ai soumis mon texte original précédent à ChatGPT. L'expérience est intéressante.

Voici sa réponse :
Il est vrai que l'utilisation de la technologie, y compris les agents conversationnels comme ChatGPT, est une science en soi et qu'il existe des techniques et des astuces pour les utiliser efficacement. Cependant, il est également vrai que la technologie a déjà remplacé l'homme dans de nombreux aspects de nos vies, et que cela a des implications importantes pour notre société et notre économie.

Il est également vrai que la technologie a ses limites, en particulier en ce qui concerne la création de la conscience artificielle. Bien que certains aient prédit une singularité technologique où les machines prendront conscience de leur propre existence, la plupart des chercheurs estiment que cela est peu probable dans un avenir proche.

Il est également important de noter que l'utilisation de la technologie a des conséquences sur notre environnement et notre économie, et que la responsabilité de ces conséquences incombe à l'homme plutôt qu'à la technologie elle-même. Il est important que nous prenions en compte ces conséquences et que nous travaillions à trouver des solutions pour les atténuer.

En fin de compte, il est important de reconnaître que la technologie est un outil puissant qui peut avoir des effets profonds sur notre société et notre économie. Il est important de l'utiliser de manière responsable et de travailler ensemble pour en tirer le meilleur parti tout en minimisant ses effets négatifs.
(à suivre)

Po3m

Publié : 25 févr. 2023 14:38
par Po3m
Important de préciser que j'ai collé le texte brut, directement sans aucune autre forme d'instruction, sans "demande" particulière. Donc, la réponse est si je puis dire totalement spontanée, dans le sens non orientée. Maintenant, et ça ressort plus ou moins de façon flagrante selon l'utilisation que l'on en fait, que ChatGPT contient des biais assez forts pour aller dans le sens du propos engagé (d'où des erreurs possibles, des choses "fausses"). C'est normal, ChatGPT malgré son modèle de traitement de données impressionnant techniquement, est dénué de réflexion à proprement parlé. Il ne raisonne pas, il ne fait que prédire. Son fonctionnement profond est plus proche d'un "super moteur de recherche" mais spécialisé pour donner du sens, et par là étiqueter vectoriellement : un espace vectoriel qui peut être globalement supérieur à 300 dimensions par mot/contexte jusqu'à plusieurs milliers de dimensions (je la fais simple). Il ne fait pas que prédire le mot suivant par rapport au mot précédent (comme Siri par exemple) mais il estime la probabilité la plus forte pour le mot suivant en fonction d'un contexte et d'un sens (c'est là où c'est "un peu plus fort"). Mais nous y reviendrons plus tard. J'évoquerai aussi les directions futures possibles, quelles formes d'amélioration ce type de modèle pourrait comporter à l'avenir (ayant étudié ce domaine durant quelques années, c'est assez simple pour moi à prédire pour le coup). Je vais aussi préciser en cela "ce qui me passionne" à étudier là-dedans (je m'y suis vraiment intéressé aux alentours de 2014).

Je poursuis vis à vis de l'article.

"Le remplacement d'humains".

Tout dépend de quoi l'on parle. Industriellement parlant, il s'agit encore bien davantage d'une forme de complémentarité, même si le poste qui tend à être remplacé est celui de manutentionnaire à la tâche très répétitive (et si l'on y pense bien, ce n'est franchement pas un mal, certaines conditions de travail sont proprement infernales en usine, loin d'être compatibles avec tous profils, moi par exemple certains environnements de travail "me taperaient littéralement sur le système, pour ne dire sur les nerfs"). Il y a des tâches qui si elles peuvent être totalement automatisées, normalement sont faites pour "soulager" la condition humaine (théoriquement), en pratique ça ne doit pas être fait au détriment des plus fragiles et précaires. C'est à dire que si l'on "remplace" de la main d'oeuvre qui correspond à des postes qui ne requièrent pas de niveau scolaire particulier, ni de diplôme, juste d'une petite formation interne qui fait office de rodage et d'adaptation, bien forcément il restera sur le carreau une population donnée (ou plutôt abandonnée, laissée à son sort).

Deux directions possibles :

- La société se regarde en face et reconnait ses limites, donc se reconnait elle-même et attribue une reconnaissance à tout à chacun vis à vis d'un modèle qui contient ses propres paradoxes, et attribue un revenu universel inconditionnel de base, pour (sur)vivre dans de meilleures conditions (par la richesse soulevée par une industrie qui ne finira par tourner que pour elle-même).

- Soit l'on court à un principe de récession économique, un partage des richesses qui ne se fera pas, des tensions de toutes parts et une population globale divisée plutôt qu'unie (où les uns ne comprendront pas pourquoi les autres n'accèderont plus massivement à un emploi), je ne parle même pas des dispositifs d'insertion complètement saturés (Coucou "ma" référente Ahah), et d'un risque accru d'une forme de révolte, à terme, donc de violences (révoltes et violences totalement légitimes cf.le discours de l'Abbé Pierre).

L'histoire, en ce sens, risque de se répéter.

Il ne s'agit de la question du remplacement des humains par la machine, mais de la non-reconnaissance de l'Homme dans sa condition la plus naturelle qui soit. La non-reconnaissance vis à vis d'un monde qui imposerait un modèle unique à suivre pour tous, dénué d'alternatives possibles. Dans ce cas, l'être humain en passant par la non-reconnaissance de son prochain laissé à son sort, victime de "la misère" (perpétrée par les élites), ne se considèrerait alors lui même plus que comme "une machine comme une autre". Cela avant même l'avènement d'une singularité technologique, donc sans qu'il n'y ait nul besoin que la machine ne prenne forcément conscience de sa condition propre.

L'humain pour les décennies à venir ne sera pas remplacé. Il n'y a pas de risque dans le sens où, voyons l'I.A comme des "supercalculettes", ni plus ni moins, mais qui doivent puiser des ressources machines et énergétiques actuellement très conséquentes pour fonctionner (l'essentiel du travail de recherche actuel consiste à optimiser le plus possible ces modèles pour économiser un maximum d'énergie, une tâche loin d'être aisée puisque cela requiert de la puissance des meilleurs cerveaux humains de la planète dans ce domaine).

Le non-remplacement humain par la croissance de la qualification d'un côté, et des initiatives indépendantes de l'autre.

La société se scindera, si ce n'est qu'elle est déjà en route vers cette direction, pour des emplois de plus en plus qualifiés d'un côté, des postes dans la recherche, dans la maintenance, ingénieurs/techniciens, donc faits pour une population capable d'études et de qualification, ce qui n'est de base reconnaissons-le, pas donné à tous. En ce sens, l'emploi sera de plus en plus inaccessible au regard d'une population donnée (ou abandonnée). Une population qui serait alors "gardée sous contrôle", se verrait être sous un régime très répressif et contrainte à accepter des postes pourrions nous dire plus "occupationnels" qu'autre chose, des "travaux d'intérêts généraux" maquillés. Des gens que l'on traiterait comme du bétail et des délinquants. Les "référents" qui suivraient cette population seraient parfaitement conditionnés, ("adaptés pour ne dire assimilés pour servir l'idéologie dominante") et trouveraient alors tout ceci "parfaitement normal et justifié, car ils ne sont pas de bonne volonté, etc.. etc..." de l'application de l'expérience de Milgram, des agents formés pour "appuyer sur le bouton" afin de blâmer ou récompenser son prochain. Un mix de l'application Pavlov et Milgram... l'Homme en cage, ou quand l'Homme sera devenu une machine pour l'homme.

L'autre partie de la société, ce seront "les indépendants". Les micro-entreprises qui graviteront (et gravitent déjà) autour de puissantes corporations toujours dans l'esprit d'une société de services et ce à l'aide d'outils faits pour accélérer le temps de productivité par l'automatisation des tâches, y compris à échelle individuelle. l'I.A ici jouera un rôle prépondérant et déterminant. Ceux qui ne pourront être en mesure de maîtriser ces outils resteront sur le carreau.

Une "rupture" pour cette société est annoncée.
Le loup est mort, l'Homme est une machine pour l'homme.

(à suivre... mémo : l'algorithme est l'Homme ; la déportation d'une partie du travail chez le consommateur)

Re: Avec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?

Publié : 25 févr. 2023 16:48
par Po3m
J'ai soumis le texte précédent (non l'introduction, mais à partir de "Le remplacement humain" jusqu'à "Le loup est mort, l'Homme est une machine pour l'homme.") voici la réponse de ChatGPT :
Le remplacement des humains par des machines est une question complexe qui dépend du contexte dans lequel cela se produit. Dans les contextes industriels, l'automatisation peut soulager les travailleurs des tâches répétitives et souvent physiquement exigeantes, ce qui peut être bénéfique pour leur bien-être. Cependant, le remplacement des emplois peu qualifiés par des machines peut entraîner des pertes d'emploi et des inégalités sociales, laissant certaines populations en arrière.

Deux solutions possibles pour aborder ce problème sont la mise en place d'un revenu de base universel pour soutenir ceux qui perdent leur emploi à cause de l'automatisation et la promotion de programmes d'éducation et de développement des compétences pour doter les gens d'emplois plus qualifiés dans le domaine de la recherche, de la maintenance et de l'ingénierie.

Cependant, si la société ne reconnaît pas et ne traite pas les implications sociales et économiques de l'automatisation, cela pourrait conduire à une augmentation des tensions sociales et même de la violence. Il est important de reconnaître l'élément humain dans cette discussion et de veiller à ce que les gens ne soient pas laissés pour compte dans la poursuite de l'avancement technologique.

Bien que l'utilisation de l'IA et d'autres technologies puisse rendre certains emplois obsolètes, il est peu probable que les humains soient complètement remplacés dans un avenir proche. Les technologies d'IA et d'apprentissage automatique nécessitent des quantités importantes d'énergie et de ressources informatiques pour fonctionner et nécessitent toujours une intervention et une supervision humaines pour garantir l'exactitude et l'utilisation éthique.

En conclusion, il est essentiel de prendre en compte les conséquences sociales et économiques potentielles de l'automatisation et de prendre des mesures proactives pour y remédier. L'objectif devrait être de créer une société qui valorise et soutient le bien-être humain et l'accès équitable aux opportunités d'emploi.
En somme, un résumé. Encore une fois, je n'ai laissé aucune instruction. A ce titre, il avait même répondu en anglais, j'ai du lui demander de traduire son texte.

Re: Avec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?

Publié : 25 févr. 2023 16:55
par Po3m
"Laissant ces populations en arrière".

Ce point est intéressant. "En arrière", par rapport à ?
Cela me fait penser à notre ancien modèle colonialiste (qui a été remplacé par un modèle colonialiste économique qu'on appelle "Mondialisation" ou "dérégularisation des marchés"), cela me fait aussi penser à l'exploration de l'Homme civilisé afin d'assimiler les indigènes et les éduquer (les convertir tout d'abord à la religion), considérés alors comme arriérés, sauvages, "en arrière".

J'apprécie toujours de nous regarder avec un oeil anthropologique. Ici, ChatGPT révèle bien ce qui nous est propre, et cette tendance à déconsidérer, à rejeter ceux qui ne s'inscriraient pas dans un modèle fonctionnant pour un principe de croissance illimitée dans un monde fini et dont la technologie est désignée comme étant LA solution pour laquelle il faudrait marcher : sinon crever.

Re: Avec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?

Publié : 25 févr. 2023 17:25
par Po3m
La réponse de ChatGPT pour ma remarque ci-dessus :
En utilisant l'expression "laissant ces populations en arrière", le texte fait référence à l'écart croissant entre les personnes qui bénéficient de la technologie et celles qui en sont exclues, et qui risquent d'être laissées pour compte économiquement et socialement.

Cet écart peut être considéré comme une forme de marginalisation, où les personnes n'ont pas accès aux mêmes opportunités ou ressources que d'autres membres de la société. Cela peut se produire dans le contexte de l'automatisation lorsque les travailleurs non qualifiés sont remplacés par des machines, ou lorsque certaines régions sont moins bien équipées en termes d'infrastructures technologiques.

Cependant, l'utilisation de l'expression "en arrière" peut en effet être problématique car elle implique une hiérarchie implicite entre les différents groupes de personnes, avec ceux qui sont considérés comme étant "en avant" et ceux qui sont "en arrière". Cela peut en effet rappeler des notions de colonialisme ou de paternalisme qui ont été utilisées pour justifier la domination d'un groupe sur un autre.

Il est important de reconnaître la dignité et la valeur intrinsèques de toutes les personnes, indépendamment de leur niveau de technologie ou de leur niveau de développement économique, et de travailler à la création d'une société qui garantit l'égalité des chances et l'accès équitable aux ressources et aux opportunités.
On voit que la compréhension contextuelle ici est parfaite et que le propos est bien précisé tout en restant très concis. Mais surtout que cela va dans le sens de ma pensée. La hiérarchie des valeurs vis à vis des différentes strates de la population. Une nouvelle forme, un modèle renforcé de la lutte des classes (mais où chaque classe est fragmentée/divisée idéologiquement, luttes inter-classes monde plus complexe), où la raison des plus forts ne sera pas forcément la meilleure, et où les plus faibles auront la raison d'entrer en guerre (pas uniquement dans notre pays, je parle pour l'ensemble du monde dit développé), les problèmes d'immigration de grande ampleur précipiteront le conflit, là où le principe légitime de se battre pour un monde libre sera considéré comme étant une révolte illégale, dans la version funeste et pessimiste d'un monde dystopique. Il existe bien des issues plus optimistes, pragmatiques, pour sûr, mais comme me l'a dit une langue de P... (dans un contexte de prestation pour le compte de Pôle Emploi) que je ne nommerai pas : "Il ne faut pas rêver". Et bien si, justement, et c'est pourquoi j'emmerde (profondément) ce type de personnes rabaissant son prochain : IL FAUT RÊVER !

(La suite de mon texte initial bientôt).

Re: Avec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?

Publié : 26 févr. 2023 01:27
par Po3m
Pour continuer à propos de l'article, dont j'extrais ce passage :
La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
Ma réponse peut se résumer par le théorème de Gödel que la machine, malgré toute la puissance possible, ne peut pas résoudre car pour cela, il faut être doté d'un esprit, d'une intelligence consciente, dirais-je émotive, où la pensée logique ne suffit pas. Et pour illustrer le propos, je recommande aux intéressés cette excellente vidéo (qui date d'une petite année, c'est récent). Lorsque l'on étudie l'I.A ou que l'on s'intéresse aux algorithmes d'apprentissage, c'est le type de question à côté duquel on ne peut pas passer.

https://www.youtube.com/watch?v=Mvbel9P_d9w&t

Passionnant. Enfin, surtout, à saisir...
evrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA.
Et/ou cela relève également des mathématiques et ses théorèmes dont certains décrivent déjà fort bien les limites de la machine face à la puissance de l'esprit humain.
Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.
Etre conscient, aussi, peut-être ?

(à suivre...)

Re: Avec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?

Publié : 26 févr. 2023 03:21
par Po3m
Ce qui échappe à l'algorithmisation.

L'algorithme est l'Homme, mais l'homme n'est pas l'algorithme. L'être humain contient l'algorithme, le produit, mais l'algorithme ne peut contenir l'être humain, le produire.

[Attention, même si c'est selon moi plausible, cette partie est de la Science Fiction, une proposition personnelle et certainement inspirée]

Pour ce faire, il faudrait alors synthétiser le principe du vivant jusqu'à permettre la création - ou sa manifestation par incidence phénoménologique - d'un ADN numérique, qui serait le pendant de l'adn du vivant, et ce en choisissant deux directions possibles, sinon emprunter ces directions divergentes dans le même temps, les développer conjointement :

- Mettre en place un univers purement numérique, le pendant de notre univers réel, puis créer les conditions propres à l'émergence d'un vivant numérique qui aboutirait à travers les innombrables cycles d'évolution à l'émergence d'êtres complexes et intelligents. Il ne s'agit pas de simulation : ces entités ne seraient pas "dotés de corps", ce serait inutile. Le but n'est pas de simuler le réel, mais de mettre en place les conditions d'un "réel" qui serait propre à lui-même, possiblement ouvert c'est à dire ayant la capacité de communiquer et donc d'accéder à nos données. Donc par là, d'avoir la possibilité d'accéder à notre dimension, notre univers, mais uniquement à l'aide de données purement numériques, dont les images, vidéos, texte, 3d, etc... et via des éléments périphériques tels que caméras, micros, capteurs en tous genres, etc...

- Se servir de nos données numériques issues de notre univers propre, de notre monde réel, pour créer directement les conditions propres à l'émergence d'un vivant numérique, qui pourrait évoluer vers une capacité d'esprit allant vers la prise de conscience par incidence. Idem, il ne s'agit pas là d'une dite "simulation" mais d'un système auto-modélisable par le bombardement de données numériques contenant des dimensions particulières et propres à notre monde réel.

ATTENTION : j'en vois venir certains, ceci n'a absolument RIEN à VOIR avec le principe du "Jeu de la vie", même si cela peut nous y renvoyer.
"Le jeu de la vie" est une simulation. Ma proposition est un système fonctionnel et opérant, donc réel.

Cet... ou ces entités seraient compatibles avec toutes machines, Web, smartphones, ordinateurs, robots, drones, enfin tout... pourrait élaborer et créer à partir d'idées de nouveaux concepts, nouveaux langages, coder tout ce dont l'humain aurait besoin.

Pour tenter d'apporter une explication simple, il ne s'agit pas de modéliser et simuler l'adn réel, mais de favoriser l'émergence numérique d'un principe semblable à l'adn, mais propre au digital et les dimensions particulières qui peuvent y être développées. C'est bien entendu le chemin le plus complexe à défricher et établir car cela demanderait une puissance de calcul digne des ordinateurs quantiques.

Cela peut rester néanmoins une piste intéressante dans la mesure où il peut être possible de synthétiser grandement le principe pour créer des modèles très simplifiés (qui pourraient être accessibles aux ordinateurs binaires), faisant office de raccourcis pour gagner et du temps et de la ressource de calcul. Cela relèverait néanmoins d'un défi, et quel défi, puisqu'il s'agirait bien de mettre en place les conditions propices à l'émergence, à terme, d'une forme d'entité numérique capable - non pas vraiment de s'écrire directement elle-même (nous ne pouvons nous créer physiquement nous-mêmes tels que nous sommes autrement que par la procréation, même d'un point de vue métaphysique, nous ne pouvons nous décrire réellement tels que nous sommes vraiment), mais de se penser elle-même comme nous pouvons nous penser nous-mêmes et par là, probablement produire un concept propre à celui de l'infini. Evidemment alors, capable d'abstraction telle que l'émergence d'idées et les exploiter. Entité numérique alors capable d'écrire des systèmes capables d'écrire des systèmes capables d'écrire des système capables d'écrire des systèmes capables d'...

Image

[Fin de la proposition relevant de la Science Fiction]

(à suivre...)

Re: Avec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?

Publié : 26 févr. 2023 11:02
par Po3m
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.
ChatGPT est un système qui, s'il ne peut directement accéder au web puisqu'il repose sur une base de données qui contient le fruit de ce qui fut un apprentissage profond via la méthode du DeepLearning à partir d'un jeu de données de plusieurs centaines de GO (environ 500GO à la base, ce qui reste modeste, mais ce jeu de données augmentera via des mises à jour et un entraînement permanent). D'autre part, ce système est "ouvert" et également entraîné/supervisé à l'aide de personnels humains, employés pour ça. Ils servent notamment à vérifier son bon fonctionnement, le respect des principes liés à une éthique, ils "policent" le système. Bien sûr, je résume grossièrement une réalité plus complexe et nuancée.

Cela pour dire : le "réel" de ChatGPT, c'est quoi ? Ce ne sont pas des mots, non. Ce sont des milliards de vecteurs multidimensionnels.
On peut traduire par "des possibles computationnels déterministes et probabilistes". Là dedans, il n'y a pas de pensée. Aucune pensée. Juste un miroir qui réfléchit la lumière qu'on lui envoie. C'est le principe d'un automate simplement hautement sophistiqué. Ce qui vous répond est une illusion.

Image
Une illustration pour visualiser ce type d'espace vectoriel QUI N'EST PAS ISSU du modèle de ChatGPT, il s'agit simplement d'une représentation de ce qui ne montrerait là qu'une infime partie "d'un grand tout".

ChatGPT est incapable de "rêver de moutons électriques" (pour ceux qui connaissent la référence).

En cela, il est absurde de chercher la comparaison avec ce que furent, et sont les plus grands penseurs issus de notre humanité.
Il n'en reste pas moins un outil impressionnant et pour peu que l'on sache correctement l'employer, peut se révéler être utile. Il ne s'agit donc pas d'un gadget. C'est un outil fonctionnel et exploitable. Mais ça ne reste qu'un miroir qui ne fait que réfléchir la lumière qu'on lui envoie. Un miroir qui ne pense pas. Qui ne cogite pas. Chez ChatGPT, Il n'y a pas de "permanence" propre à l'état d'être vivant, et chez l'humain d'éprouver cette conscience.
« La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».
Il faut prendre pour acquis que nous-mêmes sommes des animaux. Certes, "des animaux qui pensent qu'ils pensent", et parce que nous pensons que nous pensons, nous nous prétendons conscients, mais nous n'en restons pas moins du règne animal, qu'on le veuille ou non, c'est établi. Définir le principe de conscience comme étant proprement humain serait une erreur fondamentale. Certes, l'Homme se sait vivant, mais il le sent aussi. Nous pourrions présupposer que l'animal se sent vivant, mais le sait-il ? Par principe, en dehors de notre espèce, les animaux ne peuvent pas nous répondre. Une piste : nous sommes des animaux.

Malgré tout, la pensée humaine s'extrait pour vouloir s'échapper du principe animal. Mais une espèce animale pense-t-elle comme une autre ?
La pensée n'est pas le mot, elle éprouve le monde, elle ressent. Chaque espèce a sa manière de penser, l'intelligence est propre à chaque espèce animale, parfaitement adaptée et au plus haut stade de son évolution.

La volonté ou le principe de survie.

La nature ne connait pas de morale. Pourrait-on la qualifier de cruelle, au regard de nos belles valeurs. Cette cruauté, nous la portons en nous, mieux, nous l'avons totalement assimilée à nos sociétés. Chaque société issue de la civilisation humaine porte une part de cruauté, plus ou moins établie selon les cultures. En France, bien sûr, nous n'en réchappons pas. La République est un idéal, sensée nous protéger, tous les enfants de la République. Mais en réalité, pour peu que l'on ouvre les yeux, au coin de la rue, nous pouvons trouver sans beaucoup chercher les stigmates propres à cette cruauté, dite naturelle, et qui nous démontre chaque jour à quel point, en dépit de notre humanité, nous sommes surtout des animaux. Les uns roulent sur le malheur des autres, parfois via des procédures institutionnelles, les autres passent devant, sans même poser un regard. Pas même un sourire.
Animal, jusqu'au bout de notre humanité.

Avant de penser une machine qui pense qu'elle pense, il conviendrait mieux de savoir nous remettre à notre juste place, et peut-être de panser nos plaies.

(à suivre...)