L’effervescence autour de l’IA et ChatGPT en particulier, attire une foule de pseudo-spécialistes auto-proclamés, motivée par son potentiel financier ou d’exposition médiatique qui donnent leurs conseils sur la meilleure manière d’utiliser ces outils.
Derrière chacun d’eux, il y a un intérêt caché :
un scientifique peut défendre son labo,
un entrepreneur cherche à lever des fonds,
un expert cherche à gagner en notoriété, ou vendre ses services.
Ces pseudos-spécialistes exploitent l’incompréhension que la majorité des gens et des entreprises ont de ChatGPT et de l’IA. Ils manipulent la perception publique et professionnelle. Et plusieurs facteurs favorisent la propagation de leur désinformation sur l’IA et ChatGPT.
Premièrement, la complexité et la nouveauté de la technologie rendent les individus, dont les salariés, vulnérables à la désinformation. Les gens ont tendance à croire des informations simplifiées et dramatisées.
Deuxièmement, les médias sociaux jouent un rôle crucial en amplifiant les fausses nouvelles dès lors que leur contenu peut-être viral, ou sensationnaliste.
Troisièmement, le manque de régulation des contenus en ligne permet aux fausses informations de se répandre rapidement sans vérification.
Or ces pseudos-experts et charlatans de l’IA et de ChatGPT sont la source principale d’information des novices, et vos salariés n’ont pas la formation qui leur permettrait de distinguer le vrai du faux.
C’est la raison pour laquelle les entreprises doivent rester vigilantes et éduquer constamment leurs équipes pour contrer ce fléau. Pour vous y aider, nous épinglons sur ce site plus de 30 fausses pratiques identifiées,
venues de mauvaises traduction des documentations anglosaxones et copier-coller des milliers de fois sans vérification,
venues pour d’autres, d’une non compréhension de l’IA
et provenant d’une manière générale de gens qui n’ont pas travaillé le sujet.
Les 3 fausses méthodes pour l’IA les plus courantes
Dans les nombreux conseils absurdes pour utiliser ChatGPT, trois reviennent systématiquement. Les repérer est un moyen infaillible de reconnaitre les charlatans de l’IA et de ChatGPT, les faiseurs de rêves, les opportunistes qui cherchent le gain sans avoir fourni le travail nécessaire pour le mériter.
Attribuer un rôle à l’IA (la plus répandue sur le web) : vous apprendrez qu’il s’agit d’une mauvaise traduction et d’une non compréhension des 3 rôles en IA : le rôle « system » qui fournit les instructions nécessaires au bon traitement de la tâche confiée, le rôle « user » qui transmet la demande de l’utilisateur, et le rôle « assistant » en charge de fournir la réponse attendue.
Tutoyer l’IA (la plus difficile à faire passer) : vous apprendrez que cette pratique met en danger votre équilibre par le biais de l’anthropomorphisme, et génère des dizaines de milliards d’opérations inutiles à l’IA qui ne peuvent que perturber la qualité des réponses.
les prompts simplistes de 3 à 10 lignes (la plus pénalisante). Les milliers de prompts à télécharger gratuitement sur le web, ou pire inclus dans des pseudos formations payantes, produisent 100% de réponses banales, 100% de réponses incomplètes, et 20% de réponses fausses. Que vous utilisez ChatGPT ou n’importe quelle IA n’y changera rien, ces failles sont dues à la technologie sur laquelle repose l’IA générative : les Transformers.
Si vous rencontrez un prestataire ou une formation ChatGPT véhiculant une ou plusieurs de ces fausses méthodes : FUYEZ. C’est la certitude que vous avez affaire à quelqu’un qui n’a pas étudié, qui n’a pas la formation, et qui n’a pas une connaissance suffisante de ChatGPT ou de l’IA pour prétendre contribuer à l’intégration de l’IA dans votre entreprise.
Ce site épingle plus de 30 fausses informations diffusées sur l’IA
Fonctionnement de l’IA et ChatGPT
L’IA apprend seule des interactions avec les utilisateurs
les IA utilisent des réseaux de neurones
Les résultats des IA sont fiables
L’IA fournit des réponses banales
L’IA ne peut pas être créatif
L’IA peut compter
L’IA n’est pas adapté au Français
Les tokens sont des syllabes ou mots
Les tokens ca ne sert à rien
L’IA se souvient de toute l’information ingurgitée pendant l’apprentissage?
Idées reçues sur le fonctionnement ChatGPT : 1. Tokenization, 2. embedding, 3. transformer
L’IA c’est de l’intelligence artificielle
OpenAI a inventé la technologie de ChatGPT
ChatGPT, une IA récente
ChatGPT est mieux (ou moins bien) que Claude / Mistral etc
Prompt engineering
Il faut attribuer un rôle à L’IA.
Un bon prompt = Rôle + contexte + Tache + instructions
Utiliser des formules de politesse est préférable
On peut tutoyer L’IA
Risques de l’IA
L’IA présente des risques éthiques
L’IA pose des problèmes de sécurité des données
Le risque que l’IA remplace l’humain
L’IA va amenuiser la capacité des jeunes à réfléchir
SEO et IA
L’IA peut créer du contenu optimisé SEO
L’IA n’optimise pas le contenu SEO
Idées reçues sur ChatGPT : GPT, Custom Instructions, et memory
Ce que sont vraiment les Custom Instructions
Vérités cachées sur les GPT
Memory : l’illusion que ChatGPT apprend
Champs d’application de ChatGPT
L’IA (ChatGPT, perplexity) plus efficace que Google
On peut rédiger un livre passionnant avec L’IA
Impact de la désinformation sur l’IA pour les entreprises ?
La propagation de fake news sur l’IA représente un défi grandissant pour les entreprises dans le monde numérique. 75 % des salariés utilisent déjà l’IA. L’immense majorité n’a jamais été formé à l’IA, ils l’utilisent sans savoir comment elle fonctionne, ou pire sur base des fausses informations, fausses méthodes et faux conseils trouvés sur le Web.
L’impact des fake news sur l’IA est donc un enjeu crucial pour les entreprises. Les salariés utilisant l’IA sans formation et sans connaissance vont obtenir des réponses et des contenus incomplets, banaux et faux.
Les moins compétents vont prendre ces réponses fausses et incomplètes pour « argent comptant », les utiliser et les propager. En interne cela ne peut conduire qu’à décisions erronées, des solutions dysfonctionnantes, des contenus web qui déclassent les sites dans les moteurs de recherche, des évaluations erronées etc.et entretenir la circulation de fausses informations.
Relayées en externe, ces fausses informations peuvent nuire à la crédibilité de l’entreprise. Si une entreprise est perçue comme diffusant des informations banales ou erronées, elle peut perdre la confiance des consommateurs et des partenaires commerciaux. Ce manque de confiance peut se traduire par une diminution des ventes, une perte de fidélité des clients et des collaborations avortées. Ces réponses fausses, incomplètes, et erronées produites par L’IA peuvent donner une image d’incompétence ou de manque de vigilance, ce qui est préjudiciable pour la réputation globale de l’entreprise.
Et les plus compétents qui verront la pauvreté et les erreurs des sorties de l’IA, remettront en cause la pertinence de l’outil. Plus ils sont haut placés dans la hiérarchie, plus ils paralyseront l’adoption de l’IA par l’entreprise, et creuseront le fossé qui les sépare de la concurrence.
Sensibiliser les employés aux dangers des mauvaises utilisation de l’IA.
Sensibiliser les salariés aux dangers des fake news sur l’IA est essentiel pour protéger l’entreprise. Cela commence par des programmes de formation réguliers qui expliquent comment utiliser l’IA, et les erreurs à ne pas commettre.
Les salariés doivent être encouragés à faire preuve de scepticisme face aux réponses de l’IA, lui demander de citer ses sources, et de les vérifier.
Mieux encore, l’entreprise doit équiper les salariés d’extraits de prompts (que vous trouverez sur ce site), prêt à coller dans la couche « process et instructions » de leurs prompts pour les fiabiliser, à la manière des instructions ajoutées par OpenAI dans son modèle 01.
Ces efforts collectifs protégeront l’entreprise des mauvaises utilisations de l’IA.