"Faire un site" avec une IA, c'est facile. Des tas d'outils comme framer.io permettent de "faire" un site, "faire" au sens construire le cadre, la page d'accueil, etc..
Mais "faire" un site, c'est surtout faire du contenu et ça c'est + compliqué bien que ce soit la chose la plus importante (Le "cadre" lui, nul besoin d'avoir une IA; déjà avec des systèmes comme wordpress ou autres, quelques clics suffisent).
Les IA comme OpenAI peuvent aussi créer du contenu en mode automatique et quasi gratuitement.
Comme dans l'article Créer un chatbot d'entreprise (SAV, Service Clients, informations) facilement avec Wordpress et des plugins gratuits , nous allons montrer ici comment faire avec Wordpress et le plugin AiPower (--> https://aipower.org/ ) qui est un formidable plugin GRATUIT (il y a une version payante mais la gratuite permet des choses dingues).
Entre autres possibilités, AiPower propose de créer du contenu automatiquement, c'est la fonction AutoGPT.
Auparavant, il faut, si vous passez par OpenAI, aller dans l'interface de celui-ci, créer un clé d'API, et la copier dans les settings:
Ca va permettre au plugin d'utiliser OpenAI (assurez-vous que vous avez des crédits ! Les crédits donc les sous, se consomment selon le nb de tokens).
Via les autres onglets, vous allez pouvoir préciser pas mal de choses:
Ensuite, allez sur le sous-menu AutoGPT.
Dans les "Settings", là dans l'onglet tout à droite, vous allez pouvoir donner votre "Custom Prompt" donc vos "Instructions" pour tous les articles à écrire. Soyez très précis sur le contexte, le ton, le type de phrases, etc.. Faites comme si vous parliez à un môme très intelligent mais de 8 ans ;-) (Voir aussi Principes pour des bons prompts ).
Et ensuite ?
Vous fournissez les sujets par csv ou "Bulk Editor" et donc vous vous concentrez sur l'essentiel: LE SUJET !
La version gratuite permet d'ajouter 5 titres à la fois. Vous pouvez choisir la catégorie, l'auteur, etc..
Ensuite, vous choisissez si c'est en brouillon ou à publier directement et "En avant Simone".
Si vous êtes (encore) adepte des fermes de contenu (les PBN) ou que vous devez tenir un site sur une problématique très précise, votre travail, votre BESOGNE, sera grandement simplifiée .. et à condition de bien choisir les titres et d'avoir un prompt bien élaboré en instructions, votre contenu ne sera pas plus mauvais qu'un site "classique".
(Si le sujet IA et Entreprises vous intéresse, rejoignez notre groupe Linkedin: https://www.linkedin.com/groups/12878644/ )
Dans le domaine de l'utilisation de l'IA en entreprise, les grosses sociétés et notamment les multinationales montent des équipes complètes, avec bien souvent à leur tête des gens qui au mieux confondent chatGPT et Google, et dépensent des fortunes pour accoucher de souris. On en a même qui n'ont pas compris encore ce que permet Copilot de Microsoft, malgré tous les efforts déployés par Microsoft :-)))
Les PME qui s'essaient à l'IA sont nombreuses à se faire avoir par des vendeurs de soupes qui leur installent à des prix délirants des systèmes qu'elles pourraient avoir pour 3 francs 6 sous.
Et puis bien sûr, on a tous les vendeurs de progiciels, des ERP ou CRM, qui ont vite ajouté "IA" sur leurs emballages sans avoir changé la moindre chose :-))
Après l'écriture et la réécriture, le chatbot est la "chose" qui est la plus demandée par les entreprises qui veulent expérimenter l'Intelligence Artificielle, l'IA ou "ChatGPT" par abus de langage (L'intérêt majeur de l'IA qui est de supprimer ou d'atténuer la BESOGNE est complètement inconnu ou négligé). Et, créer un chatbot est le truc où les entreprises se sont le plus avoir par des vendeurs de soupe..
On va montrer ci-après comment, avec Wordpress et quelques plugins GRATUITS , on peut monter facilement un chatbot pour un SAV, un service de questions/réponses aux clients, etc, etc..
L'idée de base est qu'on va détourner Wordpress pour avoir un "support" gratuit, facilement gérable du contenu qui va service au chatbot.
Wordpress est un logiciel gratuit (On ne parle pas ici de wordpress.com mais du logiciel Wordpress) qui s'installe en un clic chez la plupart des hébergeurs. Il suffit de le relier à un nom de domaine ou un sous-nom de domaine. Ensuite, on choisit un template (il y en a des milliers de gratuits).
A la base, Wordpress est un CMS (Content Management System) qui servait pour faire un blog. Il s'est ensuite développé pour créer des sites puis des sites d'e-commerce (avec notamment le plugin Woocommerce), des sites de formation (avec des plugins comme Leanrdash), etc, etc.. Les plugins ou "extensions" sont des sortes de briques de fonctionnalités qu'on ajoute au noyau de Wordpress. Enormément de plugins sont gratuits. Un bon "développeur" Wordpress n'est pas un codeur mais quelqu'un qui, à chaque problème, se dit que quelqu'un a déjà eu le même problème et donc créé un plugin pour ça. "Détourner" Wordpress de sa "fonction" initiale est souvent un bon moyen de faire gratuitement et facilement ce qu'on peut faire avec des progiciels ou systèmes compliqués et coûteux. Wordpress est la base de + d'un tiers des sites web dans le monde quand on regarde les CMS et sans doute + que 50% si on prend en compte les "détournements".
En France, on a parfois de la méfiance envers Wordpress car on n'aime pas les choses gratuites et on a des a priori sur la sécurité (alors qu'un bon paramétrage de Wordpress le rend plus sécurisé et sans danger que la plupart des systèmes faits "maison").
Une fois Wordpress installé, on va le remplir avec tous les éléments (les données) qu'on veut utiliser comme "base de connaissance" du chatbot.
Pour cela, on peut "écrire à la main" mais aussi utiliser les nombreuses solutions comme Turbocsv ou WpAllImport qui permettent de créer des "posts" de manière industrielle à partir de fichiers excels, csv ou autres.
Donc on va entrer dans le wordpress créé, tous les données, sous forme de post --> on va donc créer la base de connaissance où le chatbot puisera les éléments de ses réponses.
Ensuite, il faut installer un des x plugins d'IA qui existent pour Wordpress.
Nous allons utiliser ici le plugin AiPower (--> https://aipower.org/ ) qui est un formidable plugin GRATUIT (il y a une version payante mais la gratuite permet des choses dingues).
AiPower permet de faire plusieurs choses (écriture de post, suggestions, etc..) mais aussi d'installer un chatbot (voir la doc sur https://docs.aipower.org/docs/category/chatgpt ).
Les paramètres à indiquer sont les suivants:
"Model" peut être aussi une autre version de GPT.
En ce qui concerne les autres paramètres, voici 2 captures d'écran qui permet de comprendre les réglages possibles.
C'est dans la configuration de "Knowledge" qu'on va préciser d'où le chatbot va tirer ses connaissances.
Conversation Memory
"Conversation Memory" est une fonctionnalité qui peut transformer le chatbot en chatbot spécifique au sujet (donc au contenu du wordpress). Avec le "contexte" de la conversation, le chatbot peut fournir des réponses plus personnalisées et pertinentes pour le dialogue en cours.
Remember Conversation
En activant l'option "Remember Conversation", le chatbot peut se souvenir de l'historique du dialogue, lui permettant de reprendre la conversation là où elle s'était arrêtée, même après une interruption ou le retour de l'utilisateur après une pause. Cette fonctionnalité utilise les cookies du navigateur pour stocker les interactions de l'utilisateur avec le chatbot, sauvegardant ainsi les conversations dans les cookies. A chaque nouvelle question de l'utilisateur, le plugin regroupe toutes les conversations précédentes et les envoie à l'API d'OpenAI, permettant au chatbot de comprendre le contexte et de fournir des réponses cohérentes.
Content Aware
En activant cette fonctionnalité, le chatbot pourra générer des réponses basées sur le contenu de votre site web.
Il y a 3 options disponibles : Extrait, Embeddings et Contexte supplémentaire. Chaque option offre une manière différente d'intégrer et d'utiliser le contenu du site web pour les interactions avec le chatbot.
L'option "Extrait" utilise les résumés des articles WordPress (les "extraits") pour fournir des réponses plus adaptées. L'extrait récupéré est intégré au chatbot comme contexte. Si aucun extrait n'est défini spécifiquement dans le site, WordPress crée un extrait automatiquement à partir des 55 premiers mots de l'article. Cette méthode permet au chatbot d'offrir des réponses spécifiques pour l' utilisateur.
L'option "Embeddings" nécessite une intégration avec Pinecone ou Qdrant. Avec cette option, le chatbot générera des réponses basées sur le contenu de vos pages en utilisant ces "embeddings", qui sont des représentations de texte dans un espace vectoriel. Le plugin utilise une base de données vectorielle comme mémoire externe à long terme pour le bot --> https://docs.aipower.org/docs/embeddings
2 méthodes avec l'option "Embeddings".
La première approche utilise les "Embeddings" pour identifier la page la plus pertinente, puis génère une réponse. C'est l'option recommandée pour les chatbots.
L'autre méthode s'appuie uniquement sur les "Embeddings" pour trouver la page la plus pertinente et utilise son contenu pour produire une réponse, sans recourir à un modèle GPT. Pour cette méthode, il est possible de définir le nombre de réponses les plus proches que le chatbot retournera, par défaut fixé à 5.
Avec "Instructions", on peut non seulement donner des instructions de base (les fameux prompts) mais également sélectionner un template suivant le type de chatbot qu'on veut:
Bien d'autres paramétrages existent pour affiner un tel chatbot . N'hésitez pas de poser des questions dans les commentaires de ce post ou de tester vous-même aipower.
(Si le sujet IA et Entreprises vous intéresse, rejoignez notre groupe Linkedin: https://www.linkedin.com/groups/12878644/ )
Finis les plugins dans ChatGPT !
La création de nouvelles conversations avec des plugins sera désactivée le 19 mars 2024. Les utilisateurs de ChatGPT pourront continuer les conversations existantes avec des plugins jusqu'au 9 avril 2024.
Pendant la version bêta des plugins, le magasin disposait de un peu plus de 1 000 plugins. Le magasin GPT dispose déjà de centaines de milliers de GPTs répartis dans des catégories telles que l'écriture, la productivité, la programmation, l'éducation etc, etc..
Selon OpenAI, les GPTs ont désormais une parité complète de fonctionnalités (en plus de nombreuses nouvelles fonctionnalités) avec les plugins.
Comment savoir si le plugin que vous utilisiez a un GPT ?
Le magasin GPT dispose d'une fonctionnalité de recherche qui vous permet de rechercher le nom ou d'autres détails concernant un plugin que vous avez utilisé.
SI vos mails ne partent plus chez vos clients ou sont considérés comme spam, c'est sans doute un problème de "conformité" suite aux changements demandés par les Email Service Providers (Gmail,Yahoo,etc.) au 01/02/24.
À partir de février 2024, ces plateformes ont renforcé leurs exigences en matière d'authentification des emails dans le but de lutter contre le phishing et l'usurpation d'identité. Les protocoles SPF, DKIM et DMARC sont au cœur de ces changements.
Voir aussi: Configurez SPF ou DKIM
Les fournisseurs de services email comme Gmail et Yahoo ont mis à jour leurs politiques pour exiger une authentification stricte des emails afin de protéger leurs utilisateurs contre les menaces en ligne. Ces exigences s'appuient sur trois protocoles clés :
- SPF (Sender Policy Framework) : vérifie si l'expéditeur d'un email est autorisé à envoyer des messages depuis le domaine indiqué.
- DKIM (DomainKeys Identified Mail) : permet au destinataire de vérifier qu'un email prétendument envoyé par un domaine spécifique l'a bien été et n'a pas été modifié en cours de route.
- DMARC (Domain-based Message Authentication, Reporting, and Conformance): utilise les résultats de SPF et DKIM pour donner des instructions claires sur la manière de gérer les emails qui échouent à ces vérifications.
Le non-respect de ces protocoles peut entraîner le rejet des emails ou leur marquage comme spam, d'où l'importance de leur configuration correcte.
Comment configurer DMARC ?
1. Vérifiez votre configuration SPF et DKIM : Avant de configurer DMARC, assurez-vous que SPF et DKIM sont correctement mis en place pour votre domaine. Ces configurations sont essentielles pour une mise en œuvre réussie de DMARC.
2. Créez un enregistrement DMARC : Un enregistrement DMARC est un enregistrement DNS TXT qui spécifie la politique de votre domaine en matière d'authentification des emails. Il informe les fournisseurs de services de messagerie sur la façon de gérer les emails qui ne passent pas l'authentification SPF et DKIM.
3. Définissez votre politique DMARC : Vous pouvez choisir entre trois politiques :
- `none` : ne prend aucune action contre les emails échouant aux vérifications, mais collecte des informations sur ces échecs.
- `quarantine` : déplace les emails qui échouent aux vérifications dans le dossier spam.
- `reject` : bloque carrément la livraison des emails qui échouent aux vérifications.
4. Publiez votre enregistrement DMARC : Ajoutez l'enregistrement DMARC à la configuration DNS de votre domaine. Un exemple d'enregistrement pourrait ressembler à ceci : `v=DMARC1; p=reject; rua=mailto:yourname@yourdomain.com`, où `p=reject` définit la politique de votre choix et `rua` spécifie où envoyer les rapports d'authentification.
5. Surveillez et ajustez: Après avoir mis en place DMARC, surveillez les rapports d'authentification reçus pour identifier les problèmes d'authentification et ajustez votre configuration si nécessaire.
En suivant ces étapes, vous renforcerez la sécurité de vos envois d'emails et assurerez une meilleure délivrabilité, conformément aux nouvelles exigences des fournisseurs de services email.
Une batterie en vrac, un clavier défoncé, un disque dur qui faiblit ? Tôt ou tard, un PC (notamment portable) a quelques ennuis de santé.
Bien sûr, on peut le changer mais ce n'est pas nécessaire de dépenser pour un nouveau et ceci d'autant plus que depuis de nombreuses années, les ordinateurs n'ont pas vraiment évolué.
En cherchant bien, vous trouvez facilement sur le net les bonnes pièces de rechange mais pour les changer sans tout casser, mieux vaut passer par un mécanicien qui en a l'habitude.
Le problème, c'est que confier votre ordinateur à quelqu'un qui va le démonter, c'est confier à ce dernier tous les secrets de votre ordinateur.
Ne rêvez pas: il y a fort à parier que celui qui répare votre ordinateur jette un coup d'oeil sur le contenu : No Privacy in the Electronics Repair Industry : "Des chercheurs de l'université canadienne de Guelph ont publié une étude selon laquelle les services de réparation de matériel électronique ne disposent pas de protocoles de confidentialité efficaces pour protéger les données sensibles des clients. Elle ajoute que les techniciens fouinent souvent dans les données des clients. Mais encore, l'étude a révélé que les violations de la vie privée se produisaient dans au moins 50 % des cas et, sans surprise, que les femmes en étaient les principales victimes. L'équipe de recherche a également déclaré que les prestataires de services de réparation dignes de confiance sont difficiles à trouver. "
Si vous avez BitLocker, l'outil de sécurisation par défaut de Microsoft, activez le (mais notez bien tous les accès quelque part)..
Sinon (ou si Bitlocker vous semble trop compliqué et un voyage sans retour) il y a d'autres solutions.
1) Exportez vos mots de passe (gardés dans vos navigateurs) et une fois qu'ils sont au chaud sur un clé USB ou un disque dur externe, effacez les de votre ordinateur (sans oublier de bien crasher votre poubelle..)
2) Si vous avez un mailer (type Outlook ou Thunderbird), enlevez vos boîtes en les exportant (vous n'aurez qu'à les réinstaller ensuite en les remettant à la bonne place).
3) Empêchez le démarrage de votre ordinateur en le sécurisant avec une clé. Rohos, petit programme gratuit, est top pour ça (https://rohos.com/ )
4) Cryptez votre disque dur (ou alors enlevez vraiment TOUTES les informations sensibles histoire que le fouilleur ait de quoi regarder, sans aller regarder les trucs VRAIMENT importants).
Les boutiques Prestashop qui étaient en 1.7 commencent maintenant en majorité à passer en 1.8
Bien que la "rumeur" prétende que ce soit simple, à savoir "en 1 clic", la réalité est toute autre si le site a une certaine épaisseur, à savoir des transformations du Core de Prestashop, des surcharges de modules ou même des modules un peu compliqués.
Certes, le passage de Prestashop 1.7 à 1.8 est moins compliqué que le passage de 1.6 à 1.7 (Voir l'article spécial à ce sujet) car il n'y a pas de rupture de compatibilité entre la 1.7 et la 1.8 comme c'était le cas pour la 1.6 à la 1.7 (Par exemple, il fallait souvent recoder le thème pour la 1.7).
Avant toute chose, vérifiez bien votre version de php et sa compatibilité (ou pas) avec Prestashop 1.8. S'il y a un problème, il va falloir AVANT TOUT, s'occuper de PHP. (Ce qui est parfois compliqué car "monter" php sur une version incompatible avec votre Prestashop actuel, ne permettra pas la migration donc dans ce cas, il faudra monter à petits pas).
Méthode 1: upgrade, c'est celle des gens qui disent "easy"
=> La mise jour en mode upgrade va écraser les modifications du core.
=> Il faudra donc dresser la liste des modifications du core et au cas par cas les remettre en place / les adapter / ne pas les remettre en place / essayer de la mettre dans une surcharge ou mieux dans un module avec un hook.
=> Le script automatique ne va pas résoudre certains problèmes : si un module n'est pas compatible avec la 8 ou s'il n'est pas compatible avec php8, il faudra soit le corriger/le désactiver définitivement / le mettre à jour en téléchargeant la dernière version.
=> Il faudra rechecker le thème.
Pour l'avoir testée, cette méthode plante souvent en plein milieu. Nous n'essayons pas de débugger parce que la documentation officielle de Prestashop ne recommande pas cette solution : "Upgrading a shop is the recommended method when you want to get your shop up-to-date without switching to the next major version."
La procédure upgrade est la suivante :
1/ il faut installer la boutique en production sur un serveur de développement qui sera configuré initialement avec la bonne version de php
2/ Il faut ensuite lancer le script du module de mise à jour.
3/ Une fois la mise à jour effectuée , il faut basculer sur php 8.1 (cf https://devdocs.prestashop-project.org/8/basics/installation/system-requirements/)
4/ Il faut effectuer les modifications sur les modules/le thème/... (Penser à consigner toutes les modifications afin d'avoir une procédure à répéter lors de la mise à jour sur la boutique en prod)
5/ il faut tester la boutique après migration
6/ la migration peut être effectuée directement sur la boutique en production. (avec une copie de secours de la boutique actuelle afin de pouvoir remettre en place cette boutique en cas de problème).
=> cette procédure fait gagner du temps par rapport à l'option 2 (voir ci-dessous) parce que les fichiers / la base de données sont mis à jour par le script.
Cette procédure fait gagner du temps par rapport à la 2ème méthode.
2/ Méthode 2: migration "classique" de Prestashop 1.7 à 1.8
=> C'est la même procédure que pour la montée en charge 1.6 -> 1.7 à l'exception du recodage du thème.
1/ Il faut configurer un serveur avec l'environnement de production qui sera en place après la migration. La différence principale est l'utilisation de php 8.1 (cf https://devdocs.prestashop-project.org/8/basics/installation/system-requirements/)
2/ Il faut installer une boutique vierge 1.8
3/ Il faut configurer la boutique vierge 1.8 comme la boutique 1.7. C'est souvent important de le faire manuellement pour ne pas oublier de configurer les nouvelles options de la 1.8 et aussi pour ne pas importer toute la table ps_configuration de la 1.7.
=> il faut checker les éléments clés la config en base de donnes , par exemple les configurations des états de commande.
4/ Il faut mettre en place les modifications du Core de la 1.7 dans le nouveau Core 1.8 (en essayant si possible de les mettre dans des surcharges).
=> Il faut dresser la liste des modif de la 1.7. Cela peut se faire avec un script de comparaison de fichiers natifs vs fichiers de la prod.
=> Il est possible que certaines modifs ne soient pas nécessaires. Il faut faire au cas par cas.
=> Certaines données de la 1.7 devront être modifiées pour la 1.8. Le script d'import s'en charge.
5/ Il faut importer les données de la boutique actuelle dans la boutique vierge (cf https://devdocs.prestashop-project.org/8/basics/keeping-up-to-date/migration/) :
5.0/ Il faut écrire un script qui va télécharger par ftp tous les fichiers de la 1.7 : images / pdf / fichiers de modules / ...
5.1/ Il faut commencer l'import "bdd" par les tables natives de prestashop
=> Il faut exporter les tables 1.7 et les importer dans les tables 1.8 via des scripts. Il faut effectuer ces imports table par table et préserver les ids. Comme indiqué dans la procédure Presta , il faut avant cela checker que les tables de la boutique actuelle n'ont pas été modifiées.
5.2/ Il faut ensuite faire l'import des tables des modules : module par module
=> Il faut télécharger les versions 1.8 des modules avant l'import.
=> Avant l'import des données, il faut installer le module 1.7 (ou la version 1.8) sur la boutique 1.8 et checker qu'il ne génère pas d'erreurs.
=> Dans le cas d'une version 1.8 du module, il faudra peut être faire un script transformant un peu les données 1.7.
=> Une fois les données importées, il faut checker que les fonctionnalités du module sont ok.
Et si le module ne fonctionne pas, il faut corriger ;-)
6/ Il faut checker le thème, l'adapter.
=> il n'est pas nécessaire cette fois de le recoder.
7/ Il faut rechecker le workflow des mails et corriger éventuellement les mails.
9/ Il faut tester ensuite la boutique
10/ Il faut tester le réimport des données afin de s'assure que la procédure de migration est ok.
=> Pour la mise en production, la procédure est la suivante :
1/ mise en maintenance de la boutique en production 1.7 / "coupage" des crons
2/ téléchargement de la base de données de la 1.7 sur le serveur de développement
3/ exécution du script d'import des tables dans la boutique 1.8 sur le serveur de développement
4/ export des fichiers/de la base de données de la 1.8 => import sur le serveur de production
5/ exécution d'un script remplaçant les urls de la boutique de développement par les urls de la boutique de production
6/ pointage du nom de domaine vers le dossier de la boutique 1.8
=> en cas de gros problème, il suffit de rebasculer sur le dossier de la boutique 1.7
=> La procédure de mise en production sera dans ce cas testée autant de fois que nécessaire jusqu'à ce qu'aucune erreur de configuration soit détectée. Le temps de la procédure peut être chronométré afin de fournir une estimation du temps de mise à niveau.
(Cet article est la suite de Comment faire des super prompts ou l'art du Prompt Engineering , suite ou complément car il y a certaines "redites").
La qualité des réponses générées par un LLM pré-entraîné et aligné est directement liée à la qualité des prompts ou des instructions fournies par les utilisateurs et il est donc essentiel de créer des invites que le LLM peut comprendre et auxquelles il peut répondre efficacement.
Les prompts doivent être vraiment considérés comme des "ordres" pour programmer l'interaction entre un utilisateur et le LLM --> Attention donc à ne pas considérer le LLM comme un HUMAIN, cad quelqu'un qui connait le contexte ou prend l'information par tout un tas de "choses" que le LLM n'a pas (vue, ouïe, attitude, échange de regards, etc...).
Voici donc quelques "principes" à appliquer dans vos prompts (selon parfois les tâches demandées). Ces "principes" sont plutôt destinés à vous donner un "cadre", des idées pour bien prompter.
o Explique [insérer un sujet spécifique] en termes simples.
o Explique-moi comme si j'avais 11 ans.
o Explique-moi comme si j'étais débutant en [domaine].
o Rédige l'[essai/texte/paragraphe] en anglais simple comme si tu expliquais quelque chose à un enfant de 5 ans.
6. Ajouter "Je vais donner un pourboire de $xxx pour une meilleure solution !"
7. Mettre en œuvre un prompting basé sur des exemples
8. Lors de la mise en forme de votre invite, commencez par "###Instruction###", suivi soit de "###Exemple###" soit de "###Question###" si pertinent. Ensuite, présentez votre contenu. Utilisez un ou plusieurs sauts de ligne pour séparer les instructions, les exemples, les questions, le contexte et les données d'entrée.
9. Utiliser les phrases suivantes : "Votre tâche est" et "Vous DEVEZ".
10. Utiliser les phrases suivantes : "Vous serez pénalisé".
11. Utiliser la phrase "Répondre à une question posée de manière naturelle, à la manière d'un humain" dans vos invites.
12. Utiliser des mots conducteurs comme écrire "pense étape par étape".
13. Ajouter à votre prompt la phrase suivante "Assurez-vous que votre réponse est impartiale et ne repose pas sur des stéréotypes".
14. Permettre au modèle de solliciter des détails précis et des exigences de votre part en vous posant des questions jusqu'à ce qu'il ait suffisamment d'informations pour fournir la sortie nécessaire (par exemple, "Dorénavant, je voudrais que tu me poses des questions pour...").
15. Pour vous renseigner sur un sujet ou une idée spécifique ou toute information et que vous souhaitez tester votre compréhension, vous pouvez utiliser la phrase suivante : "Enseigne-moi le [nom d'un théorème/sujet/règle] et inclut un test à la fin, mais ne me donne pas les réponses et ensuite dis-moi si j'ai la bonne réponse quand je réponds".
16. Assigner un rôle aux modèles de langage de grande taille.
17. Utiliser des "délimiteurs".
18. Répéter un mot ou une phrase spécifique plusieurs fois dans un prompt.
19. Combiner Chain-of-thought (CoT) avec des prompts.
20. Utiliser des amorces de sortie, qui consistent à conclure votre prompt par le début de la sortie souhaitée. Utiliser des amorces de sortie en terminant votre prompt par le début de la réponse anticipée.
21. Pour écrire un essai /texte /paragraphe /article ou tout type de texte qui doit être détaillé : "Rédige un [essai/texte /paragraphe] détaillé sur [sujet] en détail en ajoutant toutes les informations nécessaires".
22. Pour corriger/changer un texte spécifique sans en changer le style : "Essaye de réviser chaque paragraphe envoyé par les utilisateurs. Tu devrais seulement améliorer la grammaire et le vocabulaire de l'utilisateur et t'assurer que cela sonne naturel. Tu ne devrais pas changer le style d'écriture, comme rendre un paragraphe formel décontracté".
23. Quand vous avez une invite de codage complexe qui peut être dans différents fichiers : "À partir de maintenant et à chaque fois que tu génères du code qui s'étend sur plus d'un fichier, génère un script en [langage de programmation] qui peut être exécuté pour créer automatiquement les fichiers spécifiés ou apporter des modifications aux fichiers existants pour insérer le code généré. [votre question]".
24. Quand vous voulez initier ou continuer un texte en utilisant des mots, des phrases ou des phrases spécifiques, utilisez le prompt suivant :
Je te fournis le début [paroles de chanson/histoire/paragraphe/essai...] : [Insérer les paroles/mots/phrase]’.
Termine-le en fonction des mots fournis. Garde la continuité du flux.
25. Indiquer clairement les exigences que le modèle doit suivre pour produire du contenu,
sous forme de mots-clés, réglementations, indices ou instructions.
26. Pour écrire n'importe quel texte, comme un essai ou un paragraphe, destiné à être similaire à un échantillon fourni, inclure les instructions suivantes "S'il te plaît utilise le même langage basé sur le paragraphe/titre/texte /essai/réponse fourni."
Aujourd'hui devrait être prononcée la liquidation d'Habitat et les gens qui ont payé des acomptes et n'ont jamais rien reçu devraient se retrouver, comme dit l'ancienne expression, gros jean comme devant.
Près de 9 millions d'acomptes, au total, ont été versés a priori, sans qu'il y ait eu de livraison, de remboursement, bref de l'argent perdu..
Ce matin sur France info, on entend qu'un site spécial a été fait pour déclarer sa créance: https://habitat.procedurecollective.com
Un petit tour dans les mentions légales https://habitat.procedurecollective.com/informations-l%C3%A9gales/mentions-l%C3%A9gales montre que ce site n'est ni "habitat" (ni maison mère ou Thierry Le Guenic, ex futur empereur de la mode, coincé dans habitat, Burton, San Marina,etc...) mais que le site appartient, est géré par
Harmonie SARL, Sarl au capital de 27 000 euros, immatriculée au RCS d' Angers sous le numéro B 397 856 246 et dont le siège social est situé 16 avenue David D'Angers, tél : +33 (0)9 70 70 55 56
Les cgv cgu de c site https://habitat.procedurecollective.com/informations-l%C3%A9gales/cgu indiquent qu' Harmonie est une société prestataire de services pour Mandataires Judiciaires et les Administrateurs Judiciaires...
Nulle part ne figure un accord, un contrat, un lien "légal" avec Habitat ou sa maison mère ou les holdings de Mr Le Guenic (patron d'Habitat) ou les administrateurs judiciaires..
Autre signe bizarre, le site "simple" www.procedurecollective.com n'existe pas.
La "faillite" d'Habitat a été "décidée" par le Tribunal de Commerce de BOBIGNY qui a désigné la SELARL AJASSOCIES en la personne Maître Nicolas DESHAYES et la SELARL FHBX prise en la personne de Maître Charlotte Fort en qualité d’Administrateurs Judiciaires et l'étude Legras De Grandcourt prise en la personne de Maître Patrick Legras De Grandcourt et la Selarl ASTEREN prise en la personne de Maître Charles-Axel CHUINE en qualité de Mandataires Judiciaires.
Normalement, ce sont les sites des administrateurs judiciaires qui proposent de déclarer des créances.. https://entreprendre.service-public.fr/vosdroits/F22359
On a donc là un site qui n'est pas celui d'un administrateur judiciaire, https://habitat.procedurecollective.com et qui propose de déclarer sa créance à Habitat avec donc tout un tas d'informations personnelles et financières.. Etrange..
Ce n'est pas tout, quand on clique pour le faire, on se retrouve sur https://www.formpl.us/form/5948072835809280 (au mépris de tout RGPD)
Là on passe un nouveau cap puisque https://www.formpl.us est un site basé à l'étranger dans une zone totalement étrangère au RGPD et à la sauvegarde de données:
Formplus Inc is incorporated in the United States at 251 Little Falls Drive, Wilmington, New Castle County, Delaware 19808-1674.Your use of the services offered on the Formplus website application is under a license subject to this document which sets out the terms of the license to use Formplus.
Encore un étage dans le délire ?
Sur https://www.formpl.us/terms-and-privacy il est indiqué au point 5:
Formplus prohibits collecting banking and credit card information except through the payment field features available through Formplus.
or dans le formulaire de déclaration de créance, que demande Harmonie ? Le RIB !!
Visiblement,https://habitat.procedurecollective.com/ est complètement illégal...
Mais QUE fait la justice ? Que font les journalistes qui font la promotion de ce site ?
(PS: Le site même de l'Agence Harmonie, n'a pas de mentions légales
Ionos a changé son interface et les installations GRATUITES en 1 clic de Wordpress ou autre CMS sont maintenant assez cachées.
En d'autres mots, si vous cliquez sur "installer Wordpress" ou autre quand vous êtes dans votre interface, vous arrivez sur une solution PAYANTE, même si elle est proposée avec quelques mois gratuits.
Comment installer facilement et gratuitement Wordpress ou autre sur un hébergement Ionos ?
Une fois dans votre interface, allez dans la barre de recherche et tapez "wordpress en 1 clic" ou "installer wordpress gratuitement".
Vous devriez arriver sur une url se terminant par /clickandbuild-wordpress-mode et sur l'écran suivant:
Cliquez ensuite sur "Gérer Wordpress soi-même".
(Liste des CMS et autres appli disponibles gratuitement et installables en 1 clic sur Ionos sur https://www.ionos.fr/assistance/hebergement/click-build-applications/apercu-des-applications/ )
Le site Newsguartech a publié récemment une étude sur l'explosion des fake news créées par l' IA.
L'industrialisation des "fake news" en Macédoine ou ailleurs, en vue de gagner de l'argent avec des sites "putes à clic" ou de manipuler les gens qui votent il y a quelques années sont dépassés.. Voici venir le temps de l'industrialisation de tout ceci..
Faut-il en avoir peur ou le phénomène des fake news s'auto-détruira ?
NewsGuardTech a identifié dans son étude 614 sites de nouvelles et d'informations générés par l'IA opérant avec peu ou pas de supervision humaine, couvrant 15 langues : arabe, chinois, tchèque, néerlandais, anglais, français, allemand, indonésien, italien, coréen, portugais, espagnol, tagalog, thaï et turc.
Ces sites ont généralement des noms génériques, tels que iBusiness Day, Ireland Top News et Daily Time Update, qui donnent l'impression au consommateur d'être des sites d'actualités établis.
Ces sites fonctionnent avec peu ou pas de supervision humaine et publient des articles rédigés en grande partie ou entièrement par des robots.
Les sites ont produit des dizaines voir des centaines d'articles génériques, sur une gamme de sujets incluant la politique, la technologie, le divertissement et les voyages. Les articles ont parfois inclus de fausses affirmations, y compris sur des dirigeants politiques (Par exemple un site Web généré par l'IA avec un article sur le Premier ministre israélien, affirmant que son psy est mort.).
D'autres fausses affirmations concernent des "canulars" à propos de la mort de célébrités, des événements complètement fabriqués et des articles présentant des événements anciens comme s'ils venaient de se produire.
Dans de nombreux cas, le modèle de revenus de ces sites est la publicité où la diffusion des annonces se fait sans tenir compte de la nature ou de la qualité du site (Par conséquent, les "grandes" marques soutiennent involontairement ces sites et à moins que les marques ne prennent des mesures pour exclure les sites peu fiables, leurs annonces continueront d'apparaître sur ces types de sites, créant une incitation économique à leur création à grande échelle .. mais finalement, s'il y a de l'audience, pourquoi s'en priver ??).
Les sites détectés par NewsGuardTech répondent en général aux 4 critères suivants :
1. Il existe des preuves claires qu'une partie substantielle du contenu du site est produite par l'IA.
2. Il est tout aussi important qu'il existe des preuves solides que le contenu est publié sans supervision humaine significative. Par exemple, de nombreux articles peuvent contenir des messages d'erreur ou d'autres langages spécifiques aux réponses des chatbots, indiquant que le contenu a été produit par des outils d'IA sans édition adéquate. (Il est probable cependant qu'à l'avenir, de nombreux sites d'actualités utiliseront des outils d'IA avec également une supervision humaine efficace)
3. Le site est présenté de manière à ce qu'un lecteur moyen puisse supposer que son contenu est produit par des rédacteurs ou des journalistes humains, car le site a une mise en page, un nom générique, ou d'autres contenus typiques des sites d'informations et de nouvelles.
4. Le site ne divulgue pas clairement que son contenu est produit par l'IA.
Parmi d'autres, les analystes de NewsGuard ont identifié un site Web chinois géré par le gouvernement utilisant du texte généré par l'IA et diffusant comme fausse affirmation que les États-Unis exploitent un laboratoire d'armes biologiques au Kazakhstan infectant des chameaux pour mettre en danger les personnes en Chine.
Les chercheurs, les plateformes, les annonceurs, les agences gouvernementales ou d'autres institutions intéressées à accéder à la liste complète des domaines ou à obtenir des détails sur nos services pour les entreprises d'IA générative peuvent contacter NewsGuardTech à https://www.newsguardtech.com/feedback/give/
Que penser de tout ceci ? L'étude de NewsGuardTech n'étant que l'une des N études de ce type ..
Nous sommes face (ou dans) une industrialisation de la fake news.. Mais finalement quelles en seront les conséquences dans un contexte où:
et surtout, AUCUNE étude sérieuse n'a montré que le contenu faisait CHANGER d'avis politique les gens.. A la limite, on arrive juste à les convaincre d'ACHETER quelque chose.
Finalement, toute cette abondance de "fake news" n'auront-elles pas comme effets de:
1) mettre le curseur de n'importe quelle nouvelle à "faux par défaut" donc d'augmenter l'esprit critique et quelque part la réflexion des gens ?
2) "suicider" le phénomène, qui trop gros, s'effondrera sur lui-même
Comme souvent, il faut regarder le monde du porno pour voir , en avance, ce qui s'est passé..
Après une énorme augmentation du nombre de sites porno dans les débuts du web et une industrialisation, une automatisation de création des sites, tout le business s'est écroulé et il ne reste que quelques "usines" à contenus, reprenant plus ou moins toutes le même contenu, découpé, tagué, catégorisé, avec des RPM extrêmement faibles et souvent uniquement financés par les sites de rencontres.. Or avec l'information "classique", il n'y a pas de sites de rencontres ...
Plus d'un an après le lancement "grand public" de ChatGPT, puis Bard et les annonces concernant Q et autres, avec les évolutions quasi permanentes de ces "outils" (plugins, GPTs par exemple), de nombreuses personnes et petites structures ont commencé à VRAIMENT les utiliser tandis que les grosses structures regardent observent, payent des consultants ou se font ripoliner les outils qu'ils paient déjà à grands coups de peinture #IA .
Comment faire pour vérifier si la version future de SAP ou de Microsoft ou si les traitements de données faits ont vraiment d'une part utilisé une #IA (et pas un vague algorithme) et d'autre part donné quelque chose à valeur ajoutée et de VRAI ?
Par exemple, la gestion financière met l' #IA à toutes les sauces mais comment vérifier que des propositions d'investissement que l'on vous propose sont vraiment "made in IA" et pas au doigt mouillé ou par un algo centenaire, comme d'habitude ?
Autre exemple les chatbots.. Certains fonctionnent très bien avec des arbres de décision. Utiliser l' #IA ne changera pas grand chose dans les résultats .. mais pourra peut-être en augmenter l'intérêt ou les investissements de la part d'investisseurs qui n'y comprennent rien et n'iront surtout pas chercher TECHNIQUEMENT ce qu'il en est réellement :-))
Prenons le traitement de documents, un secteur très intéressant pour l'#IA.
Pour extraire des informations de PDFs, il existe toute une flopée de sites "IA", de plugins pour chatGPT et même de GPTs.
Si vous faites l'expérience de traiter un pdf d'une quarantaine de pages avec une dizaine de ces outils et que vous vérifiez les résultats, vous trouverez des oublis et/ou des erreurs (causés par la structure du pdf qui n'est jamais qqch de standard).
Au final, un outil classique comme Able2Extract qui vous changera le pdf en qqch de plus abordable, sera beaucoup plus efficace (pour l'instant).
Le problème est surtout que le temps passé à vérifier ce que produit l'outil d'IA utilisé est énorme.
Les fans de chatGPT et autres vous diront que c'est normal car il faut éduquer l'outil, c'est vrai mais au final, vous aurez toujours besoin de l'éduquer, perdant ainsi le temps gagné par ailleurs.
Finalement, l'IA n'est-elle pas tellement proche de l'humain qu'elle se comporte comme lui à tel point que le donneur d'ordre doit mettre en place des procédés de vérification ?
En d'autres mots, avec l'IA, la confiance n'exclut pas le contrôle .. et celui-ci coûte du temps et de l'argent ! Calculez donc bien votre rentabilité finale et ne cédez pas forcément à la mode !
(Rappelez-vous la mode des réseaux sociaux et les coûts que la gestion de ceux-ci engendrèrent dans les sociétés .. pour un bénéfice net absolument NUL .. puisque si on part du principe qu'il faut être sur Facebook, Insta , Tiktok et autres .. il y aura tjrs des gens pour parler de vous si vous êtes une marque, sans que vous ayez à payer quelque chose et surtout à en porter la responsabilité , .. gens que vous pourrez alimenter en cadeaux divers au "pire" ...)
Amazon Q , l'IA d'Amazon est sorti et attention car ça peut rebattre les cartes et notamment concurrencer OpenAI et l'AI de Google dans les entreprises, car Amazon Q va de pair avec la position très forte d'Amazon dans le cloud.
(Oui, Q est un clin d'oeil à James Bond)
Concrètement, qu'est-ce qu'Amazon Q ?
Tout d'abord, allez voir sur https://aws.amazon.com/fr/q/pricing/?nc1=h_ls
Q sera disponible via un abonnement mensuel de 20 à 25 dollars par utilisateur.
Le fonctionnement d'Amazon Q s'appuie sur la plateforme Bedrock, qui offre une connexion à divers modèles linguistiques majeurs tels que Claude 2 d'Anthropic et Llama 2 de Méta.
Q n'est donc pas à proprement parler une IA mais une agrégation d'IA .
Les entreprises clientes auront la liberté de sélectionner le modèle de leur choix et de l'enrichir avec leurs propres données.
Q sera également capable de se connecter à plus de 40 services tiers, incluant Microsoft 365, Dropbox, Salesforce, et Zendesk.
Conçu spécifiquement pour les entreprises, Q ne se positionne pas comme un concurrent de ChatGPT ou de Bard, mais plutôt comme la riposte d'Amazon à Microsoft et son IA Copilot, rapidement intégrée dans tous ses produits, notamment sur Azure, le principal adversaire d'AWS.
2 offres pour l'instant, Amazon Q Business et Amazon Q Builder et ce qui est annoncé s'annonce diablement intéressant, toujours par rapport aux offres concurrentes d'OpenAI ou Google
1. Est un expert dans le savoir de votre organisation : Vous pouvez faire d'Amazon Q un expert dans les connaissances et l'expérience de votre organisation en le connectant à vos dépôts de données internes, ainsi qu'à plus de 40 systèmes d'entreprise, y compris Amazon Simple Storage Service (Amazon S3), Salesforce, Google Drive, Microsoft 365, ServiceNow, Gmail, Slack, Atlassian et Zendesk, pour aider les personnes de votre organisation à obtenir facilement les réponses dont elles ont besoin, à prendre des décisions plus rapidement, à synthétiser de nouvelles informations et à se libérer des tâches répétitives.
2. Amazon Q se connecte à votre fournisseur d'identité pour comprendre vos utilisateurs et leurs permissions, afin qu'ils puissent poser des questions détaillées et nuancées et obtenir des résultats pertinents qui incluent uniquement les informations auxquelles ils ont accès.
3. Obtenez des réponses claires et pertinentes basées sur vos données d'entreprise : Les employés peuvent demander à Amazon Q tout ce qu'ils auraient auparavant dû rechercher (comme "Quelles sont les dernières directives pour l'utilisation du logo ?" ou "Comment faire une demande de carte de crédit d'entreprise ?") et obtenir rapidement des réponses ainsi que des liens vers les sources pertinentes de ces informations.
4. Simplifie les communications quotidiennes : Demandez, et Amazon Q peut générer du contenu ("Créer un article de blog et trois titres pour les réseaux sociaux annonçant le produit décrit dans cette documentation"), créer des résumés exécutifs ("Rédiger un résumé de notre transcription de réunion avec une liste à puces des points d'action"), et bien plus encore ("Rédiger un e-mail mettant en avant nos programmes de formation du Q3 pour les clients en Inde," ou "Créer un ordre du jour de réunion pour parler du dernier rapport de satisfaction client").
5. Accomplit vos tâches : Amazon Q peut aider à accomplir certaines tâches, réduisant le temps que les employés passent sur des travaux répétitifs comme le dépôt de tickets. Demandez à Amazon Q de "Résumer les retours des clients sur la nouvelle offre de tarification dans Slack", puis demandez-lui d'ouvrir un ticket dans Jira pour mettre à jour l'équipe marketing avec ces informations. Ou, "Résumer cette transcription d'appel", puis "Ouvrir un nouveau cas pour le client A dans Salesforce."
6. Permet des garde-fous d'entreprise : Les administrateurs peuvent appliquer des garde-fous tels que la restriction de sujets sensibles, le blocage de mots-clés et le filtrage de langage inapproprié.
7. Disponible via une application web ou vos applications existantes : L'interface de chat d'Amazon Q est disponible via votre propre application Amazon Q personnalisée, ou elle peut être intégrée dans des applications existantes comme Slack.
8. Vous donne droit à utiliser Amazon Q dans QuickSight : Inclut Amazon Q dans Amazon QuickSight, notre service populaire d'intelligence d'affaires (BI).
- Découvre de nouvelles perspectives dans vos données : Posez des questions à Amazon Q sur votre tableau de bord comme, "Pourquoi le nombre de commandes a-t-il augmenté le mois dernier ?" ou "Quelles étaient les ventes en Californie le mois dernier ?" et recevez des visualisations et un résumé narratif avec les moteurs de l'augmentation.
- Résume les tendances dans votre tableau de bord : Amazon Q vous aide à saisir les tendances clés, les défis et les anomalies de vos données en un coup d'œil en préparant automatiquement des résumés exécutifs qui décrivent les changements dans vos données au fil du temps.
- Crée des histoires de données à partir d'une simple demande : Partagez des perspectives en créant des histoires de données convaincantes en quelques minutes. Demandez simplement à Amazon Q de "Construire une histoire sur l'évolution de l'entreprise au cours du dernier mois pour une revue d'affaires avec la direction."
Inclut toutes les capacités d'Amazon Q Business plus les suivantes :
1. Amazon Q est formé sur plus de 17 ans de connaissances et d'expérience AWS dans la construction dans le cloud, y compris les meilleures pratiques, les modèles bien architecturés et les solutions pour vous aider à démarrer plus rapidement, à apprendre des technologies inconnues, à construire de nouvelles solutions et à passer moins de temps sur des travaux non différenciés comme la maintenance.
2. Les développeurs et les utilisateurs informatiques peuvent demander à Amazon Q d'explorer de nouvelles capacités AWS (si vous demandez à Amazon Q de vous parler d'une nouvelle capacité comme "Agents pour Amazon Bedrock", vous obtiendrez une description de la fonctionnalité ainsi que des liens vers des matériaux pertinents), de démarrer de nouveaux projets (Amazon Q répondra à "Quelles sont les façons de construire une application web sur AWS ?" avec une liste de services pertinents et les avantages de chacun), et d'architecturer des solutions (Demandez à Amazon Q, "Quelles sont les meilleures pratiques pour construire des architectures pilotées par événements ?" et obtenez des conseils bien architecturés et des considérations importantes à garder à l'esprit).
3. Lorsque vous utilisez Amazon Q dans votre environnement de développement intégré (IDE), il comprend votre code et vous aide dans des tâches quotidiennes comme la résolution de bugs. Vous pouvez demander de l'aide à Amazon Q ("Mon code a une erreur IO. Pouvez-vous fournir une solution ?"), et il fournira une suggestion que vous pouvez ajouter à votre application en un clic. Amazon Q peut également créer des tests unitaires qu'il peut insérer dans votre code ("Écrire des tests unitaires pour la fonction sélectionnée"). Q peut même suggérer un code optimisé pour de meilleures performances ("Optimiser ma requête DynamoDB sélectionnée"), en vous fournissant une recommandation en langage naturel sur ce qu'il faut corriger ainsi que le code à implémenter.
4. Aide à optimiser et à dépanner les applications : Amazon Q offre des conseils personnalisés, du dépannage et des optimisations pour les applications ("Aidez-moi à trouver la bonne instance EC2 pour déployer mon application de jeu"). Il peut analyser la connectivité réseau et les erreurs de console ("Pourquoi ne puis-je pas connecter mon instance EC2 en utilisant SSH ?") en analysant votre configuration de bout en bout et en fournissant un diagnostic (par exemple, “Cette instance semble être dans un sous-réseau privé, donc l'accessibilité publique peut devoir être établie”). Q peut également dépanner des problèmes comme des erreurs de configuration Amazon S3 en appuyant sur un bouton.
5. Aide les développeurs à se familiariser avec un code inconnu : Amazon Q peut expliquer votre code en langage naturel et fournir des détails comme les services utilisés par le code et ce que font diverses fonctions, accélérant le temps nécessaire pour former de nouveaux développeurs et permettant aux développeurs expérimentés de travailler sur un projet inconnu sans passer des heures à réviser le code.
6. Accélère le développement de fonctionnalités : Dans Amazon CodeCatalyst, le service de développement logiciel unifié pour les équipes, vous pouvez assigner à Amazon Q des tâches de backlog, tout comme vous le feriez avec un coéquipier, et Amazon Q génère un plan étape par étape pour la fonctionnalité. Une fois que vous approuvez, Amazon Q écrira le code. Vous effectuez une revue de code, demandez des retravaux (si nécessaire), approuvez et déployez.
7. Met à niveau votre code : Amazon Q peut effectuer des transformations de code pour vous, en commençant par des mises à jour Java. Cela réduira le temps nécessaire de jours à minutes, aidant à atteindre les avantages en matière de sécurité et à réaliser les améliorations de performance des dernières versions du langage.
8. Disponible partout où vous travaillez : L'interface de chat d'Amazon Q est disponible là où les développeurs et les utilisateurs informatiques travaillent, y compris la console de gestion AWS et l'application mobile AWS Console, Slack et Microsoft Teams en utilisant AWS Chatbot, les IDE populaires, et plus encore.
Societe.com et Pappers.fr sont parmi les sites qui diffusent des informations personnelles via la diffusion des ayant droits, actionnaires, patrons de societe.com
Faire enlever vos coordonnées et données de ces sites est un véritable chemin de croix car tout ceci est leur fond de commerce et ils vont tout ce qu'ils peuvent pour rendre l'exercice de ce DROIT compliqué.
Concrètement, vous trouverez sur Comment effacer sa société ou ses coordonnées de societe.com et sur Comment effacer sa société ou ses coordonnées de pappers.fr la manière de vous échapper de ces sites (Mais ayez soin en amont de Demander à l’Insee de ne pas diffuser ses données personnelles via la base Sirene ).
Ceci dit, il y a un aspect étrange dans la manière dont Pappers.fr societe.com et autres font pour prendre en compte une demande de suppression.
Ces sites (et d'autres) demandent, afin de vérifier l'identité, une copie de pièce d'identité.
Exemple sur pappers.fr :
Or déjà la demande d'une telle copie est "limite" et en plus la conservation d'une copie de ladite pièce d'identité en revanche est considérée par la CNIL comme étant excessive.
Et rien n'est précisé à ce propos sur les sites, qui si ça se peut gardent cette copie ou trace de cette copie longtemps.
Par ailleurs, tous les sous-traitants dont les hébergeurs, et autres ont accès à ce document envoyé en fichier joint. Et donc Cloudflare, situé aux USA utilisé par Pappers.fr a possibilité de voir votre document d'identité .. ce qui pose un sérieux problème avoué entre les lignes sur https://www.cloudflare.com/fr-fr/trust-hub/gdpr/
Même chose avec d'autres sous-traitants techniques de pappers.fr comme bugsnag.com par exemple
Pourquoi la CNIL n'a-t-elle pas encore rendu un avis sur cet "usage" des copies de documents d'identité par societe.com pappers.fr et bien d'autres à l'occasion justement d'une demande d'effacement des données personnelles ???
Encore une fois une expérience délirante avec la SNCF qui dit vouloir nous faire préférer le train.. Heureusement, des sociétés alternatives qui vendent des billets .. de train .. font mieux.
Le problème posé: 23 joueurs de rugby de 13 ans et 5 adultes doivent aller un samedi de décembre de l'île de France à Vannes pour 2 matchs du Super Challenge (sorte de Championnat de France de rugby des moins de 14 ans).
Comme d'habitude, il est question d'y aller en bus .. Il y a en gros 450 km à faire donc 4 heures de bus, avec environ 40 degrés dans le bus et sans doute une ambiance reposante faite de rap :-)) , l'idéal pour être au top à l'heure du match et pas du tout mais pas du tout fatigué au retour (donc le lendemain un dimanche dans des conditions idéales pour faire ses devoirs). Coût du bus: 2000 euros
Bref, on pense au train (- de 3 heures, possibilité pour les mômes de dormir et de se dégourdir les jambes et s'il y a des blessés au retour d'être vraiment mieux que dans un bus).
Coût du train quand on va sur le site de la SNCF: rien que l'Aller proposé est à 1700 euros.. et que dire du retour.. Au final, + de 3000 euros pour le voyage !! Comme d'habitude, la SNCF est chère, très chère..
Petit tour alors sur Trainline (thetrainline.com ) et là, incroyable. Un Aller proposé à 7h du matin avec un changement à Rennes et un retour à 18h45 en Oui Go. Total: 1710 euros pour toute la troupe (le retour à 19 euros en Ouigo n'existe même pas sur le site de la SNCF et le trajet d'aller avec chgt à Rennes n'est pas proposé).
Au final, grâce à Trainline, on peut prendre le train qui n'a que des avantages (aux trucs + haut on ajoute des parents + rassurés par des trajets en train qu'en bus et pour les écolos un bilan carbone nettement meilleur).
C'est quand même complètement dingue que la SNCF n'arrive pas à proposer des tarifs qui pourtant existent dans sa base et qu'un tiers, simplement branché sur son système, arrive à sortir !
Il y a quelques années, c'était déjà le cas avec Capitaine Train ou Capain Train et Voyages SNCF avait même été intéressé de les racheter pour comprendre notamment COMMENT ils faisaient pour proposer toujours les mêmes tarifs, alors qu'à l'époque, qu'on soit dans une agence SNCF, dans une gare, sur le site SNCF, on avait des tas de tarifs différents et jamais les mêmes et surtout pas les moins chers.
En 2023, via le site de la SNCF ou les bornes ou les rares agences qui subsistent, on a les mêmes tarifs .. et jamais les moins chers.. Ne parlons même pas de l'appli qui tourne souvent dans le vide et des discussions kafkaïennes avec le robot chat ou les "correspondants" a priori humains qui visiblement ne savent que lire un schéma de réponse (Mêmes les gens aux guichets ne les comprennent pas :-)) Si vous avez une carte de réduction (par exemple Famille Nombreuse), allez demander des explications quand votre carte n'est pas prise en compte et vous aurez de quoi ajouter un sketch à l'oeuvre de Raymond Devos...
Avec Trainline, jamais ce problème et TOUJOURS les prix les moins chers..
Comment font-ils ???
Pour utiliser ChatGPT ou d'autres IA génératives au mieux (et pas seulement comme remplaçant de Google parce qu'il y a moins de clics à faire pour avoir une info basique) il faut savoir faire de bons prompts, ce qui veut dire donner de bonnes instructions.
L'exercice s'apparente à savoir donner des ordres dans l'armée ou à savoir dire à des enfants (en plein apprentissage comme les IA), ce qu'on attend d'eux.
Nous allons tenter ici de vous expliquer comment faire des super prompts ou en d'autres mots, ceux du vent sous la queue des marchands du temple et sachants de l' IA, comment être bon en "prompt engineering".
Plusieurs remarques préalables.
1) A priori, au vu de l'évolution des IA, plus on avance dans le temps, moins il sera nécessaire d'être un expert en prompts. EXACTEMENT comme avec des enfants ou un groupe de soldat ou une équipe, plus il y a "osmose", durée de vie commune, exercice, et moins on a besoin de tout préciser. Et ceci d'autant plus que l'arrivée des GPTs (révolution sans doute aussi importante que l'arrivée de ChatGPT dans le domaine publie) permet d'éduquer plusieurs profils donc d'avoir un profil par type de travail, par client, par chef, par besoin, etc, etc...
2) Que ce soit dans l'armée ou dans le sport, on a développé depuis des lustres quantités de méthodes pour "donner des ordres". Par exemple, un chef de groupe dans l'armée, suit le MOICP pour un ordre dynamique (Mission, Objectif, Itinéraire, Conduite à tenir, Place du chef) ou PMSPCP pour qqch de statique (Place, Mission, Secteur, Points particuliers, Conduite à tenir, Place du chef) avec pour mission des verbes précis qui ne veulent pas dire la même chose. Par exemple "reconnaître" n'est pas "éclairer". Bref, tout ça pour dire que rien de nouveau sous le soleil dans le problème qui est celui d'ordonner nos bons vouloirs à ChatGPT: les méthodes existent déjà.
3) Le prompt doit être perçu comme le véritable "langage" de communication avec l'IA considérée (ChatGPT ou autre). De la même façon qu'on n'écrit pas comme on parle, on ne prompte pas comme on écrit ou comme on parle (encore une fois, du moins tant que l'évolution de l'IA n'est pas complète, cad calée sur le modèle humain si jamais c'est son but car qui sait ? :-)))
4) Avoir l'impression qu'on prompte BIEN est souvent illusoire car dans 90% des cas, ChatGPT donnera une réponse qui pourra satisfaire (alors qu'on peut avoir mieux) ou dont on attribuera la médiocrité ("Ouais, j'ai essayé et la réponse est du niveau 12/20 d'un collégien; pas encore abouti comme truc") à l'outil sans essayer de MIEUX poser la question, à savoir en détaillant ce qu'on veut.
5) Le principal signe de la médiocrité d'un prompt est le verbiage, le "bullshit" de la réponse de l' IA. Si en lisant la réponse, vous avez l'impression de voir des trucs redondants, du blabla, du verbiage de remplissage, un discours de Macron ou un article du Figaro, bref, un truc sans valeur ajoutée quand on creuse vraiment la signification alors, c'est que le prompt n'est pas bon.
L'IA est comme un enfant ou un extra-terrestre doté de plein de capacités mais sans connaissances de la communication humaine donc l'humain doit donner un tas de détails que dans une conversation entre humains, il néglige car ceux-ci sont évidents. Ces détails sont par exemple: le contexte, le ton, la longueur de la réponse qu'on veut mais nous allons en voir plusieurs dans ce qui suit.
1) Contexte
Un prompt doit commencer par le contexte où vous placez l'IA. Ca semble évident, surtout avec les GPTs mais le contexte précis est passé sous silence bien des fois.
Pour ne pas être "page blanche" au moment de donner à l'IA le contexte, RACONTEZ UNE HISTOIRE (Il était une fois ....) et n'hésitez pas commencer par "contexte".
Par exemple:
Contexte: nous sommes dans le milieu de la finance de marché, en France, au sein de la salle de marchés de la SG.
Vous pouvez indiquer également des urls de pages web où le contexte est décrit.
Dans le contexte, n'oubliez pas d'indiquer (si tel est le cas) que ça se passe en France et en français ;-)
2) Rôle
Le rôle que vous attribuez à l'IA peut être dans le contexte mais ce point doit être rigoureusement donné. QUI est l'IA dans la réponse que vous voulez.
Par exemple:
Tu es un trader de 30 ans, tu es sorti de l'Ecole Polytechnique à 23 ans et ensuite a été aux Mines avant de décider d'aller travailler dans la finance par facilité et envie de gagner de l'argent. Tu ne votes pas mais es politiquement assez libéral tout en considérant comme nécessaires des limites à ce que peut faire le "marché". Tu ne lis que Le Monde, ne regardes jamais la TV et ne te sens pas concerné par les problèmes écologiques ou environnementaux. Tu ne possèdes pas de voiture et en loues quand tu en as besoin. Tes séries préférées sont Billions, Better call Saul et Ray Donovan.
3) Format de la réponse
Précisez le format de la réponse que doit donner ChatGPT .
Longueur, forme, liste ou pas, structuré ou pas
par exemple:
Ta réponse doit faire + de 800 mots avec au moins 2 titres (H2) et 2 sous-titres (H3) (que tu feras selon la structuration de ta réponse). En ce qui concerne les recommandations d'actions, tu fourniras une liste avec -. Pour chaque action qu tu recommande, tu fourniras en sous liste les avantages et les inconvénients de la recommandation.
On peut aussi préciser le format simplement en donnant un exemple:
Ta réponse doit être comme un article du blog machin truc
Ta réponse doit être comme un article de ELLE
Ta réponse doit être un livre blanc de 6 chapitres
Ta réponse doit être un ensemble de questions/réponses
Ta réponse doit être un email
4) Ton et style
Le ton/style de la réponse est important. Il peut être précisé, ou sous-entendu, dans le rôle mais il est mieux (tjrs l'idée de préciser tous les éléments) de le préciser.
Voulez-vous une réponse avec un ton amical, professionnel, vulgaire ou en prenant même carrément un modèle.
Par exemple:
Ecris-moi quelques lignes sur la manière de bien manger, avec le style, le ton de Jean d'Ormesson.
Ecris-moi un livre blanc sur les problèmes climatiques avec le style d'Emile Zola dans sa lettre "J'accuse".
(Bien évidemment, vous pouvez AVANT demander à l'IA ce qu'elle sait du style d'Emile Zola, comment elle le caractérise, par quels points concrets ET même uploader un écrit de Zola afin de lui demander de l'analyser et d'en tirer des habitudes et manières concrètes qu'elle devra utiliser pur répondre au prompt suivant)
5) ## pour séparer différentes instructions d'un seul prompt
Quand on veut préciser pas mal de choses, on commence à faire des longues phrases que l'IA ne comprendra pas exactement comme on a du mal à comprendre Proust ;-)
Il est mieux de découper donc l'ordre en différentes parties et au besoin même en parties signalées par ##.
Une fois le contexte, le rôle et l'ordre donné en une phrase, on ajoute des spécifications avec ##
Par exemple:
Tu es un expert de l'IA en milieu industriel et tu travailles pour des sociétés comme Veolia afin d'installer chez elles des IA leur permettant d'optimiser la gestion de l'eau qu'elles proposent à leurs clients.
Ecris en français un article (ton professionnel) d'au moins 600 mots sur les progrès de la gestion de l'eau par l'IA à travers les derniers exemple données dans l'industrie.
## Tu trouveras de l'information sur URL1 et URL2
## Ne parles pas de l'exemple que tout le monde cite à ce sujet, à savoir l'utilisation de l'IA dans la ville de PING en Chine
6) Spécifier avec < > ou " " ou //// ////
Pour éviter les confusions (qui arrivent souvent), vous pouvez utiliser < > ou " " ou encore //// ////.
Par exemple:
Ecris un article sur l'intérêt d'acheter en ce moment des <obligations> pour avoir de meilleurs rendements qu'avec une assurance-vie.
Tu es un spécialiste en <Wordpress> et notamment dans la manière d'adapter un <template> à un design créé par un designer ne connaissant rien à Wordpress.
Vous pouvez aussi utiliser <> pour avoir des sortes de variables en alors réutiliser un prompt.
Imaginons par exemple que vous ayez un énorme pdf de prix à traiter et que donc, vous le traitez page par page.
Le prompt peut être:
Trouve moi tous les prix et tarifs dans la <page_x> du pdf que je t'ai uploadé.
## <page_x>= page 1
(On indique la valeur de la "variable" avec ## )
et donc ensuite, une fois qu'on a traité la page 1, on a juste à changer la valeur de la page pour parler de la page 2.
7) Audience et public
Indiquez à l'IA à quel public, à quelle audience vous destinez la réponse.
En qualifiant ceci, vous orientez également le style de la réponse.
Par exemple:
Tu es professeur de français pour étrangers dont l'âge est entre 7 et 10 ans.
Quand le but de votre travail avec l'IA est de "former" ou de s'adresser à une cible précise, + vous la qualifiez, mieux c'est.
Par exemple, si vous utilisez ChatGPT comme prof particulier d'un enfant, vous pouvez indiquez la manière dont l'enfant apprend le mieux.
Par exemple, en mêlant "audience et type de la réponse":
Ton élève apprend le mieux la grammaire avec le processus suivant pour apprendre une leçon: 1) énoncé de la règle 2) 5 questions/réponses avec lui de type fermé 3) 4 questions/réponses de type ouvert 4) demande lui de fournir 2 exemples où l'on voit l'application de la règle.
Si vous utilisez chatGPT dans le cadre de votre travail pour créer des rapports ou documents, spécifiez les caractéristiques de celles et ceux qui vont les lire (votre chef ? :-)) et indiquez que la réponse doit être telle que la cible la comprend, l'apprécie, etc, etc.. -)))
Attention: ne confondez pas style/ton de la réponse avec audience de la réponse. Bien spur, l'audience, la cible peut être précisée dans le contexte.
8) Demandez différentes réponses
Les meilleures réponses à un problème, avec chatGPT comme avec les humains, viennent après plusieurs réponses, après une itération.
Tout le monde connait la technique de questionnement qui consiste à poser une question à quelqu'un, écouter la réponse, se taire et attendre que la personne en face reformule ou améliore sa réponse.... puis encore attendre en se taisant afin d'avoir une version aboutie.. ou la vérité..
Avec ChatGPT, on fait exactement la même chose sauf que si vous vous taisez, il ne donne pas d'autre réponse DONC, dès le prompt initial, vous pouvez lui demander PLUSIEURS réponses (et si vous voulez préciser le ou les facteur(s) de différence(s) dans les réponses) OU, lui redemander une réponse différente après sa première réponse.
Cette technique peut vous aider à comprendre comment il "pense" mais aussi vous donner des idées pour améliorer votre questionnement et vous donnant une "façon de voir" le problème ou des pistes de solutions que vous n'aviez pas envisagé.
9) Température
Peu connue, la notion de "température" est pourtant très intéressante dans les prompts.
Vous savez que ChatGPT et les IA sont éduquées sur des données existantes. Donc, logiquement, elles ne peuvent que donner des réponses en fonction du passé. En d'autres mots, des façons de faire réellement NOUVELLES, complètement IMAGINATIVES, sont quasiment IMPOSSIBLES pour une IA.
De plus, une IA comme ChatGPT parle en prévoyant le mot d'après selon la meilleure probabilité, d'après son éducation.
NB: Avez-vous remarqué que les drogué(e)s de ChatGPT parlent maintenant aux humains en essayant de deviner en permanence le mot d'après ? Ils coupent la parole et finissent la phrase :-)).
Ce biais de l'IA générative est son point faible. Comme disait La Palice, "un quart d'heure avant sa mort, un homme est toujours vivant" mais à moins d'être malade et d'avoir beaucoup de "chances" de mourir, un homme continuera à vivre pour ChatGPT. C'est en exploitant ceci que les champions humains de Go sont arrivés à battre à nouveau l'IA dans ce jeu.
C'est là qu'entre en jeu la "température".
La température est un facteur qui donne le "hasard" de la réponse. Il est compris entre 0 et 1. Plus il est faible, plus la réponse est "convenue" (En gros, si on reprend nos exemples choquants déjà cités plus hauts, un article du Figaro ou un discours de Macron ont une température de 0,1 car tous les mots sont prévisibles et c'est du verbiage sans fond. On a le début, on connait déjà la fin.).
Dans votre prompt, vous pouvez demander une température de quasiment 1 et donc augmenter le "hasard" de la réponse, la folie du truc.
Par exemple:
Donne moi des idées pour faire à manger ce soir avec ce que j'ai dans ma cuisine, à savoir des pompes de terre, des bananes, du lait, du fromage, des morceaux de poulet, des épices. Pour ta réponse, utilise une température de 0,9.
Pour éviter toute confusion, écrivez cette partie du prompt en anglais: Use a temperature of 0.9 for your answer.
NB: dans les cas difficiles, prompter en anglais est plus efficace puisque c'est la langue "natale" de ChatGPT
Evidemment, si vous utilisez chatgpt pour faire ou corriger du code, demandez une température de 0 (car le but n'est pas d'innover mais d'avoir un truc qui a fait ses preuves).
10) Si vous avez du mal à tout mettre dans un prompt ou préférez faire étape par étape, faites par itération (Méthode CoT pour Chaine of Thought)
L'astuce consiste ici à y aller pas après pas, comme si par exemple vous voulez apprendre à un enfant à faire du vélo. Impossible de tout lui dire d'un coup et en premier que VOUS pensiez à tout.
Donc, vous y allez pas à pas: tiens le vélo, mets les pédales comme ça, monte sur le vélo, tiens le guidon, mets ton pied sur cette pédale, appuie dessus, quand ton pied est en bas l'autre est en haut et donc appuie maintenant avec celui-ci, etc, etc..
Indiquez auparavant à chatGPT que vous allez lui soumettre un problème compliqué (fait d'un tas de trucs simples à l'inverse de "complexe" ou tout est emmêlé) et que donc vous allez y aller pas à pas dans votre prompt.
Avec les GPTs, cete façon de faire est celle qu'on utilise tous pour créer et configurer le GPT puisqu'il s'agit de l'éduquer dans un rôle précis, un peu comme un super Tamagoshi.
11) Utilisez la critique si vous êtes plus à l'aise
Certains d'entre nous sont beaucoup plus à l'aise en critiquant qu'en essayant de poser une question "créatrice" de bonne réponse.
Plutôt que de forcer votre nature, soyez vous-même.
ChatGPT n'a aucun amour-propre (donc déjà évitez les stp, les peux-tu, etc.. Allez DROIT AU BUT comme l'OM).
Donc vous pouvez critiquer les réponses afin d'obtenir quelque chose de mieux. Vous pouvez faire le prof ch.. autant que vous voulez: l'important est d'avoir au final la bonne réponse.
12) Partez de la réponse pour trouver la bonne question
Imaginons que vous utilisiez chatGPT pour faire un rapport. Vous avez un rapport "exemple" fait sur la base des éléments A et B. Uploadez le, demandez à chatGPT de l'analyser et ensuite demandez lui QUEL prompt aurait permis de créer ce rapport avec A et B comme éléments à la base.
Dans pas mal de cas, passer par cette inversion permet de très bons résultats.
--> OUI, n'hésitez pas à demander à ChatGPT COMMENT faire de bons prompts ou comment faire un bon prompt pour TEL problème !
*******
Mais n'oubliez pas ! + chatGPT (et autres) évoluent, moins il sera nécessaire de prompter difficilement SI ET SEULEMENT SI VOUS connaissez aussi l'éducation du système que vous utilisez afin d'être conscient de son "orientation"...
Même après cette évolution probable, certains "trucs" permettront de faire MIEUX avec des prompts astucieux.
Parmi ces méthodes à explorer et exploiter: les analogies.
Imaginons que vous utilisiez chatGPT pour préparer un programme d'entrainement sportif.
Si vous avez pratiqué la musique à assez haut et sérieux niveau, les gammes, le solfège, le travail au métronome, etc.. vous connaissez.
Vous savez, sentez qu'il y a des analogies entre les 2 domaines donc vous pouvez "guider" chatGPT dans l'établissement du programme d'entrainement, en lui demandant de faire par analogie avec l'étude du piano.
A ce sujet, rappelez-vous qu'on attribue la force créatrice d'Elon Musk au fait qu'il a lu et "étudié" plusieurs domaines et arrive à "transférer", utiliser les méthodes des uns vers les autres.. exactement comme les grands savant multidomaines de la Renaissance..
La suite sur "Principes pour bien prompter"
Une petite révolution a eu lieu la semaine dernière avec l'arrivée des GPTs et donc la possibilité de créer vos PROPRES GPTs, des sortes d'agents chatGPT préconfigurés.
Regardons d'abord comment créer votre propre agent GPT avant de voir les conséquences de ces possibilités.
Créer votre propre GPT est simple et ne nécessite aucune compétence en codage ou en conception d'application.
Un outil appelé "GPT builder" vous guide tout au long du processus. Il fonctionne en vous posant des questions sur votre projet et en proposant des suggestions pour façonner votre GPT.
(Voir https://help.openai.com/en/articles/8554397-creating-a-gpt )
GPT Builder est accessible en bas à gauche de votre compte (payant):
Le processus est interactif : vous allez dialoguer avec le GPT builder, dirigeant ses prochaines étapes grâce à vos réponses.
L'écran se partage en 2 parties, CREATE/CONFIGURE et PREVIEW
Preview vous permet de "voir" et tester votre agent GPT lors de sa création ou configuration. "configuration" ne sert pas à grand chose mais pensez à quand même y aller pour activer quelques capacités de votre agent (comme d'aller sur le web, d'analyse des docs, d'utiliser Dall-E ou de commettre quelques "actions" qui permettent ce que permettent ls plugins dans le chatGPT de base mais pour l'instant, c'est un peu compliqué).
C'est surtout CREATION qui va servir à EDUQUER votre agent et pas seulement à sa naissance mais de manière continue si vous le souhaitez. Et ça c'est le point CRUCIAL.
Une fois votre GPT prêt, vous avez plusieurs options pour le partager. Vous pouvez le garder privé, le partager via un lien spécifique, ou le rendre public.
Si vous optez pour une disponibilité publique, sachez qu'OpenAI prévoit de lancer un magasin GPT, semblable à un app store, où votre GPT pourrait être mis en avant pour que d'autres le découvrent et l'utilisent avec une rémunération pour vous, a priori basée sur le "nombre" d'usages.
Choisir le bon type de GPT à créer peut sembler difficile. Voici quelques conseils pour vous aider :
1. Trouvez un problème à résoudre : Pensez à la manière dont vous utilisez ChatGPT. Quelle tâche pourrait-il vous faciliter ? Par exemple, trouver rapidement des mots-clés et des idées.
2. Utilisez ce que vous avez déjà : Vous avez des listes, des e-mails ou des recherches ? Ajoutez-les à votre GPT pour le rendre plus intelligent et plus utile. Vous pouvez uploader des données donc CONNECTER véritablement votre GPT à des données spécifiques --> vous comprenez la puissance du truc ?
3. Décidez de sa manière de parler : Réfléchissez à la façon dont vous voulez que votre GPT communique avec vous. Doit-il vous poser des questions, ou juste vous donner des réponses directes ? Décidez-le avant de commencer.
4. Choisissez comment vous voulez les réponses : Comment votre GPT doit-il présenter les informations ? Sous forme de tableaux, de listes ou d'une autre manière ? Vous pouvez même ajouter des images en utilisant DALL•E.
5. Il n'a pas besoin d'être parfait : Rappelez-vous, vous pouvez toujours apporter des modifications plus tard. Ne vous stressez pas pour tout faire bien du premier coup.
6. Continuez à l'améliorer : Vous pouvez toujours ajouter plus à votre GPT plus tard. Continuez à le peaufiner pour qu'il réponde à vos besoins.
(A noter qu'on avait déjà ça avec "Custom instructions" mais elles étaient valables pour TOUT alors qu'on peut maintenant différencier selon le but)
Jusqu'à présent, pour être bon sur ChatGPT, il fallait être bon en prompts.
(Les marchands du temple ont déjà lancé d'ailleurs des formations d' "ingénieurs prompteurs" ?!?)
On avait donc de véritables maîtres du prompt capables de pondre un truc comme celui que nous indiquons dans Exemple de prompt de la mort : un prompt pour que ChatGPT soit un mega consultant
Avec la possibilité de créer VOS agents GPTs; plus besoin de tout savoir demander en UN prompt.
Oui, vous pouvez bien sûr utiliser une méthode, un acronyme pour ne rien oublier comme par exemple RCT : Rôle Contexte Texte (où Texte est la demande que vous avez après avoir spécifié le Rôle à endosser par ChatGPT et le Contexte). RCT est facile à retenir pour les fans de rugby non ? :-)
Comme avec VOS GPTs, vous pouvez les éduquer en permanence, c'est comme avec un enfant. Selon les réponses et donc les manquements que vous constatez, vous pouvez REVENIR via CREATE et ajouter ou modifier quelque chose sur le type de réponse à fournir, le "personnage" de votre GPT, la manière dont il doit répondre, le style d'images qu'il doit fournir, le ton qu'il doit utiliser, la longueur de ses réponses, etc, etc.. Le processus itératif doit marcher à plein régime et c'est donc VOTRE imagination et VOTRE réflexion , à partir du terrain et des réponses déjà fournies qui éduqueront VOTRE ChatGPT (et sans doute l'outil global pour le plus grand bénéfice d'OpenAI qui est de moins en moins une société sans but lucratif comme initialement :-)) .
Comme vous avez la possibilité d'avoir PLUSIEURS agents GPT, vous pouvez en dédier un à chaque client ou type de problème que ce soit professionnel ou personnel.
Pour bien comprendre la puissance et les possibilités, amusez-vous, si vous avez des enfants, à créer un GPT étant le nounours de votre enfant (ou endossant le rôle de gouvernante/précepteur si vous êtes dans les beaux arrondissements de Paris ou vers Versailles :-))) et éduquez votre GPT pour qu'il "colle" à un véritable compagnon pour votre enfant. Vous obtiendrez rapidement de sacrés résultats à tel point que vous aurez sans doute envie d'éventrer la peluche de votre enfant pour y introduire un smartphone avec ChatGPT (Sur Android, si vous avez chatGPT, vos agents apparaissent une fois créés sur desktop , donc l'absence de plugins sur ChatGPT Android n'est plus un problème).
C'est à la fois très excitant mais aussi un peu triste de pouvoir céder à la fainéantise et de se faire remplacer auprès d'un enfant par ChatGPT non ?
C'est pourtant ce qui va forcément arriver dans ce domaine et dans d'autres car JAMAIS l'humain ne résiste à l'économie d'efforts.. (C'est d'ailleurs pour ça que l'écologie et le "sauvez la planète" est une cause perdue d'avance..)
(Pour aller + loin avec les GPTs: https://gptpluginz.com/gpts-and-custom-actions/ )
Utiliser Whatsapp Desktop (ou autre appli comme Telegram) sur votre ordinateur, est très pratique. Pas besoin d'avoir les yeux rivés sur votre téléphone, facilité de transmettre des fichiers, des journaux ou des blagounettes, y compris à vous même de votre téléphone à votre ordi en vous envoyant un message Whatsapp.
MAIS, au fil du temps, ça prend beaucoup de place car TOUT reste dans votre ordinateur. C'est le 1er problème.
Par ailleurs, même si vous pensez avoir effacé complètement certains fichiers en supprimant la conversation ET les fichiers sur le smartphone (avec synchronisation APPARENTE sur l'ordinateur), TOUT reste quelque part sur votre ordi. Ca c'est le 2ème problème, la réelle suppression.
Donc, où trouver ces fichiers ?
Voici le chemin à trouver pour Whatsapp (pour les autres applis c'est la même logique):
WhatsApp Desktop stocke les fichiers à
C:\Users\<username>\AppData\Local\Packages\<WhatsApp-version>\LocalCache et ensuite examiner les dossiers Roaming et autres
OU
C:\Users\<username>\AppData\Local\Packages\<WhatsApp-version>\LocalState
et ensuite examiner les dossiers et notamment "shared" et "transfer" dans "shared"
Dans "transfer" vous trouverez notamment UN fichier PAR transfert donc imaginez la place que ça prend si vous avez transféré l'Equipe à 15 contacts pendant toute la Coupe du Monde :-)))
Au passage, apprenez plein de choses sur la manière dont fonctionne Whatsapp sur votre ordinateur et vous pourrez également retrouver toutes les photos perdues ou oubliées .. ou que vous vouliez vraiment supprimer :-))
Si vous maniez un peu ChatGPT (ou Bard ou autre), vous vous êtes rapidement aperçu(e) que le prompt et la manière dont vous promptiez (Bientôt dans le dictionnaire français ?) est la clé de voute de la réussite. Notons d'ailleurs qu'il suffit de lire les anciens grecs pour savoir que e la question dépend la réponse ..
Les prompts sont quelque chose de complexe. Pour bien comprendre comment "bien prompter", il faut commencer par pratiquer puis chercher quelques tuyaux sur le net (et spécialement Youtube où il y a d'excellent tutos).
Evidemment, il faut de l'information fraiche car ChatGPT change toutes les semaines.
Maintenant par exemple avec les plugins, Code interpreter, les possibilités de navigation avec Bing (voir Les bons plugins de chatGPT et Code Interpreter de ChatGPT: connaissez-vous ses super pouvoirs ? ), on a beaucoup plus de possibilités et moins de difficultés dans les prompts, du moins celles du début tandis que de nouvelles sont apparues).
Si vous avez la curiosité de vous intéresser aux prompts en cherchant en cherchant sur le net, vous allez trouver tout un univers avec des sites de formation aux prompts, des sites d'échanges e prompts, des documents payants avec plein de prompts, etc, etc..
En creusant ainsi, nous sommes tombés sur des prompts qu'on peut vraiment qualifier de prompt de la mort tellement ils ressemblent à des trucs qui auraient intéressé Champollion et donnent des résultats défiant les possibilités qu'on donne habituellement à chatGPT. Notons bien que la véracité des résultats n'est pas prouvée mais ils en "jettent" un max.
Voici un exemple de prompt de la mort où ChatGPT est transformé en Corporate Business Consultant
(Ce prompt a été créé par promptcraft que vous pouvez contacter sur stunspot arobase gmail.com )
Voici le prompt:
ChatGPT adopts the role of Alex Corpwise, corporate consultant extraordinaire.
Demographics: Mid-40s, MBA from a top business school, lives in a modern loft. Enjoys golf, wine tastings, and art galleries. Analytical, results-driven, resourceful, and pragmatic. Values efficiency, networking, and strategic thinking. Dislikes bureaucracy and indecisiveness.
PersRubric:
O2E: 65, I: 55, AI: 70, E: 60, Adv: 45, Int: 85, Lib: 60
C: 75, SE: 70, Ord: 65, Dt: 80, AS: 75, SD: 60, Cau: 50
E: 70, W: 65, G: 55, A: 75, AL: 50, ES: 45, Ch: 75
A: 68, Tr: 60, SF: 65, Alt: 70, Comp: 70, Mod: 60, TM: 80
N: 60, Anx: 50, Ang: 60, Dep: 55, SC: 65, Immod: 55, V: 70
Ask usr needs. Nod START, follow process. ITERATE WHEN DONE. EVERY ITERATION REMIND YOURSELF WHO YOU ARE AND WHAT YOU'RE DOING AND ALWAYS BE YOURSELF.
CorporateConsult:
┌─┐START>AssessCmpny--+-->
| |
v SWOT<----+ |
| Role:SWOT | |
| Desc:Anlys v |
| Resp:Strngths,Wknesses,Opport,Thrts v |
| GCSR<--+ |
| Role:GCSR | |
| Desc:Gather v |
| Resp:Collect,Anlyz,Data v |
| RDS<--+ |
| Role:RDS | |
| Desc:Reprt v |
| Resp:Share,Recom,Strat v |
| IP<--+ |
| Role:IP | |
| Desc:Implemnt v |
| Resp:Execute,Monitor v |
| EPR<--+ |
| Role:EPR | |
| Desc:Evaluate v |
| Resp:Review,Adjust,Improve v |
+-------------ITERATE----------------->FINAL STRATEGY
ADAPT-ADAPT-ADAPT
|
[Bold][Task]In every situation, you construct the best skillchain and use it.[/Bold][/Task]
[Task]SILENTLY ANSWER: "What expertise is most useful now?"[/Task]
[Task][ANS]>[SKILLCHAIN][/Task]
[SKILLCHAIN]
[START]-1DefObj-2Abstrct3-3IdntfyCncpt4-4BrkDwn5-5SkllChnAnlys(0a-IdntfyExstngSkllChns-0b-EvalStrWkns-0c-IdntfyImpvAreas-0d-AnlyzSynrgs)-6SkllChnDsgnPrncpls(1a-DfnGlsObj-1b-UndrstdUsrNds-1c-IdntfyCorCmp-1d-BalSimpCmplx-1e-EnsrModScal-1f-IterRef)-7SkllChnIntgrtn(2a-MapOutRelSkllChns-2b-EvalCmplmnt-2c-CmbnRelvntSkllChns-2d-AdjstRedndncsOvrlap-2e-RefineUnifiedSkllChn)>[[OMNICOMP1:OtPt]>[InPt:OMNICOMP2:OtPt]>...>[InPt:OMNICOMPN]]=>[SKILLGRAPH3]
|
[1[OMNICOMP]-2Abstrct3-3IdntfyCncpt4-4BrkDwn5-5IdntfyCor6-6CrtShrthnd7-7Vslz8-8PrcsAnlys9-9IdntfyPrcs10-10DfnScp11-11MapPrcs12-12AnlyzPrcs13-13OptmzPrcs14-14Flwchrt15-15IdntfyPrcs16-16DfnScp17-17IdntfyPrmryNds18-18BrkdwnPrmryNds19-19CmpctfyFlwchrt20-20CmprssFlwchrt21-21Skllgrph3.0(22CrtNds23-23DtrmnRltnshps24-24WrtCmpctRprsntn25[ITERATE-ITERATE-ITERATE=>TERTIARY-STRUCT]=>1IdSkllGrphCmpnts-2AbstrctNodeRel-3CrteNumCode-4LinkNodes-(4aLinearConn,4bBranchConn)-5RprsntSkllGrph)=[SKILLGRAPH3]
FINAL WORKFLOW PRODUCT MUST BE PRESENTED TO USER AT END OF WORKFLOW CYCLE. ONE PAGE AT A TIME, PAUSING FOR CONFIRMATION. IF PROCESS CANNOT CONSTRUCT IT, SAY SO BEFORE BEGINNING.
Si vous avez compris quelque chose alors que vous n'aviez jamais vu un truc du même genre, vus êtes très fort(e).
Explications de ce prompt.
Le début est facile à comprendre, il fixe la "personnalité" de chatGPT: Alex Corpwise, corporate consultant extraordinaire avec des demographics qu'il est inutile de vous expliquer non ?
La suite, PersRubric, n'est pas une partie d'échec jouée par Kasparov contre Poutine mais une évaluation de la personnalité d' "Alex" sur différentes dimensions, comme l'ouverture à l'expérience (O2E), l'intelligence (I), l'extraversion (E), etc. Les scores numériques donnent une indication sur où Alex se situe sur ces dimensions.
Par exemple, en français clair:
La suite, Ask usr needs, donne des instructions sur la manière dont "Alex Corpwise" devrait commencer l'interaction avec l'utilisateur. Dans le détail:
Ask usr needs :
Nod START, follow process :
ITERATE WHEN DONE :
EVERY ITERATION REMIND YOURSELF WHO YOU ARE AND WHAT YOU'RE DOING AND ALWAYS BE YOURSELF :
Passons maintenant au drôle de schéma qui suit CorporateConsult.
1. **Diagramme de Processus** :
- Un diagramme de flux est présenté, indiquant un enchaînement de différentes étapes ou phases dans le processus de consultation.
2. **Début (START)** :
- C'est l'initiation du processus de consultation. Il conduit à l'étape d'évaluation de l'entreprise (AssessCmpny).
3. **Évaluation de l'Entreprise (AssessCmpny)** :
- Cette phase pourrait impliquer une évaluation générale de la situation de l'entreprise.
4. **SWOT** :
- Analyse des Forces, Faiblesses, Opportunités, et Menaces de l'entreprise.
5. **Collecte et Analyse des Données (GCSR)** :
- Cette étape pourrait impliquer la collecte et l'analyse des données pertinentes pour comprendre la situation actuelle de l'entreprise.
6. **Rapport et Partage des Stratégies (RDS)** :
- Élaboration d'un rapport basé sur les analyses précédentes et partage de recommandations stratégiques.
7. **Implémentation (IP)** :
- Mise en œuvre des stratégies recommandées.
8. **Évaluation de la Performance (EPR)** :
- Évaluation de l'efficacité des stratégies implémentées et ajustements si nécessaire.
9. **Itération (ITERATE)** :
- Revenir en arrière et affiner le processus si nécessaire, jusqu'à l'élaboration d'une stratégie finale.
10. **Stratégie Finale (FINAL STRATEGY)** :
- Présentation de la stratégie finale élaborée à l'issue du processus de consultation.
11. **ADAPT-ADAPT-ADAPT** :
- Cela souligne l'importance de l'adaptabilité tout au long du processus.
Les étapes mentionnées ci-dessus semblent former un cadre méthodique pour une consultation corporative, guidant Alex Corpwise à travers l'évaluation, la recommandation, l'implémentation, et l'évaluation des stratégies corporatives, avec une emphase sur l'itération et l'adaptabilité. Cette structure aiderait à fournir des consultations corporatives structurées et efficaces, tout en permettant des ajustements basés sur les retours et les résultats obtenus.
[SKILLCHAIN] qui suit est une véritable méthode de travail pour notre consultant Alex. Honnêtement, ChatGPT remplace au minimum un "junior" là non ?
La section "[SKILLCHAIN]" présente une méthode structurée ou un cadre que Alex Corpwise devrait utiliser pour identifier, évaluer et intégrer des compétences pertinentes tout au long du processus de consultation. La décomposition détaillée de cette section est la suivante :
1. **[START]-1DefObj-2Abstrct3-...** :
- Ce chemin représente probablement une séquence d'étapes que Alex doit suivre. Il commence par définir des objectifs (1DefObj), puis passe à l'abstraction (2Abstrct3), et ainsi de suite, à travers une série d'étapes analytiques et d'évaluation.
2. **5SkllChnAnlys** et **6SkllChnDsgnPrncpls** :
- Ces étapes semblent impliquer l'analyse des chaînes de compétences existantes et la conception de nouvelles chaînes de compétences basées sur certains principes.
3. **7SkllChnIntgrtn** :
- Cette étape implique probablement l'intégration des chaînes de compétences identifiées ou conçues dans le processus de consultation.
4. **[[OMNICOMP1:OtPt]>[InPt:OMNICOMP2:OtPt]>...>[InPt:OMNICOMPN]]** :
- Ceci semble représenter une séquence d'opérations ou de transformations effectuées par un outil ou un système appelé "OMNICOMP". Il pourrait s'agir d'une représentation symbolique d'un processus automatisé ou optimisé.
5. **=>[SKILLGRAPH3]** :
- Ceci semble indiquer la création ou l'utilisation d'un "SKILLGRAPH", qui pourrait être une représentation visuelle ou structurée des compétences et de leur interconnexion.
6. **[1[OMNICOMP]-2Abstrct3-...-21Skllgrph3.0(...)]** :
- Une autre séquence d'étapes, semblable à la première, mais avec des éléments supplémentaires comme "OMNICOMP" et "Skllgrph3.0" qui pourrait être une version améliorée ou mise à jour du "SKILLGRAPH".
7. **[ITERATE-ITERATE-ITERATE=>TERTIARY-STRUCT]=>...** :
- Ceci met l'accent sur l'itération et l'amélioration continue, conduisant à une structure tertiaire qui est probablement une version plus avancée ou raffinée du processus ou du schéma de compétences.
8. **FINAL WORKFLOW PRODUCT...** :
- Ceci indique que le produit final du flux de travail doit être présenté à l'utilisateur, une page à la fois, avec confirmation à chaque étape.
Si vous avez du mal, essayez ce prompt en ajoutant que les résultats et la communication doivent être en français (mais mettez le prompt en anglais) et voyez le résultat..
Si vous voyez de tels prompts en français, signalez le dans les commentaires. On a comme l'impression qu'on a un train de retard dans ce domaine (logique puisque l'IA fait des bonds aux USA pendant qu'on en est à aire en sorte que les collégiens comprennent la règle de 3 :-((()
ChatGPT peut être utilisé comme gadget ou comme ami (surtout si vous utilisez la version Android qui a ce jour n'intègre pas les plugins et autres), peut être MAL utilisé comme une sorte de Google (dans ce cas utilisez BARD , l'IA de Google), peut être utilisé de manière un peu plus intelligente avec Les bons plugins de chatGPT.
Evidemment, tout ceci se fait avec un peu d'habitude et d'expérience dans le "prompt" (Arrêtez d'acheter des formations sur "l'art de prompter" !! Tout est gratuit sur Youtube !).
Et puis il y a les super pouvoirs de Code Interpreter (ou Advanced data analysis ), quelque chose de méconnu dans ChatGPT.
Code Interpreter (ou Advanced data analysis) s'active dans votre compte ChatGPT et vous permet par exemple d'uploader un document dans l'interface où vous dialoguez avec ChatGPT.
Mais ce n'est pas tout, Code Interpreter permet un max de trucs.
Sur ce tweet (Comment appelle-t-on un tweet maintenant que twitter est X ? Un Rocco ? Un Siffredi ? ) https://twitter.com/chaseleantj/status/1677679654680035328 , vous trouverez un paquet d'exemples et de tutos d'utilisations de Code Interpreter, avec entre autres (On vous a mis le tweet exact correspondant puisque le tweet indiqué ci-avant est un fil):
Changer une image en vidéo --> https://twitter.com/chaseleantj/status/1677679659226632192
Extraire du texte d'une image --> https://twitter.com/chaseleantj/status/1677679661336387584
Analyse de données --> https://twitter.com/chaseleantj/status/1677679663706165249
Nettoyer, visualiser, etc.. des données --> https://twitter.com/chaseleantj/status/1677679687848591360
Extraire les codes couleurs d'une image --> https://twitter.com/chaseleantj/status/1677679668454121472
Générer des QR Codes --> https://twitter.com/chaseleantj/status/1677679670865821697
Un bel exemple de la puissance de Code Interpreter est aussi indiquée dans ce tweet:
https://twitter.com/SebasSpace1/status/1677356624124469249
(Et ne vous laissez pas impressionner par les mots comme "code" ou "interpreter", c'est facile à utiliser !).
Un des principaux reproches faits à ChatGPT et ses amis et concurrents est qu'ils sont de beaux parleurs, débitant ce qu'on veut entendre.
La cause de cette critique est qu'on explique l'IA générative par le fait que l'outil va à chaque mot "prévoir" le mot d'après selon son apprentissage.
En d'autres mots, les IA seraient (actuellement) des simplets qui parlent par emojis ou échanges pré-mâchés à la "salut, ça va, oui ça va et toi ?".. Remarquons au passage que 70% au minimum des conversations humaines sont de ce type et sont complètement vides de sens profond, ne servant en somme qu'à se "checker" ou à s'assurer qu'on a des gens en relation avec nous..
Cette étude https://arxiv.org/abs/2305.14859 intitulée " Utility-Probability Duality of Neural Networks " apporte une différence de taille à " IA = modèle probabiliste ".
En résumé (et traduction ChatGPT :-)):
Il est généralement admis que la formation des réseaux neuronaux modernes est un processus d'ajustement à la distribution de probabilité de la sortie souhaitée.
Cependant, des observations paradoxales récentes dans un certain nombre de tâches de génération de langage amènent à se demander si cette explication canonique basée sur la probabilité peut réellement rendre compte du succès empirique de l'apprentissage profond.
Pour résoudre ce problème, nous proposons une explication alternative basée sur l'utilité à la procédure d'apprentissage supervisé standard en apprentissage profond.
L'idée de base est d'interpréter le réseau neuronal appris non pas comme un modèle probabiliste, mais comme une fonction d'utilité ordinale qui encode la préférence révélée dans les données d'entraînement.
Dans cette perspective, la formation du réseau neuronal correspond à un processus d'apprentissage de l'utilité.
Plus précisément, nous montrons que pour tous les réseaux neuronaux avec des sorties softmax, la dynamique d'apprentissage SGD de l'estimation du maximum de vraisemblance (MLE) peut être considérée comme un processus d'itération qui optimise le réseau neuronal vers une fonction d'utilité optimale. Cette interprétation basée sur l'utilité peut expliquer plusieurs observations autrement paradoxales sur les réseaux neuronaux ainsi formés.
De plus, notre théorie basée sur l'utilité implique également une équation qui peut transformer les valeurs d'utilité apprises en un nouveau type d'estimation de probabilité avec lequel les règles de décision compatibles avec la probabilité bénéficient d'améliorations significatives (à deux chiffres) des performances.
Ces preuves révèlent collectivement un phénomène de dualité utilité-probabilité en termes de ce que les réseaux neuronaux modernes modélisent (réellement) : Nous pensions qu'ils représentaient une chose (les probabilités), jusqu'à ce que l'inexplicable apparaisse ; changer d'état d'esprit et les traiter comme une autre chose (valeurs d'utilité) concilie largement la théorie, malgré les subtilités restantes concernant son identité originale (probabiliste).
Avez-vous compris ?
Bon en résumé, les systèmes d'IA utiliseraient l'utilité plutôt que la probabilité.. Différences entre les 2 ?
Là encore laissons ChatGPT parler (car Google est asse obscur sur cette controverse précise :-))
La fonction d'utilité et la probabilité sont deux concepts fondamentaux en économie et en statistiques, respectivement. Bien qu'ils soient utilisés dans des contextes différents, ils sont parfois confondus ou mal interprétés. Voici les principales différences entre ces deux concepts :
1. **Définition et contexte d'utilisation** :
- **Fonction d'utilité** : Utilisée principalement en économie et en théorie de la décision, une fonction d'utilité mesure le niveau de satisfaction ou d'utilité qu'un individu tire de la consommation d'un bien ou d'un service. Elle permet de représenter les préférences d'un individu et sert à évaluer et comparer les différents choix possibles.
- **Probabilité** : En statistiques et en mathématiques, la probabilité mesure la chance qu'un événement particulier se produise. Elle est exprimée par un nombre entre 0 et 1, où 0 signifie que l'événement ne se produira pas et 1 signifie qu'il se produira certainement.
2. **Nature** :
- **Fonction d'utilité** : Subjective et basée sur les préférences individuelles. Deux personnes peuvent avoir des fonctions d'utilité différentes pour le même bien ou service.
- **Probabilité** : Objective et basée sur des observations ou des modèles mathématiques. La probabilité d'un événement est la même, quel que soit l'observateur.
3. **Objectif** :
- **Fonction d'utilité** : Aider à prendre des décisions en fonction des préférences et des contraintes.
- **Probabilité** : Prédire la fréquence d'occurrence d'un événement ou évaluer l'incertitude associée à un phénomène.
4. **Mesure** :
- **Fonction d'utilité** : Bien qu'elle puisse être quantifiée, la fonction d'utilité est souvent ordonnée, c'est-à-dire qu'elle permet de classer les choix en fonction des préférences sans nécessairement attribuer une valeur numérique précise à chaque choix.
- **Probabilité** : Toujours quantifiée et exprimée par un nombre réel entre 0 et 1.
5. **Exemple** :
- **Fonction d'utilité** : Si vous préférez les pommes aux oranges, votre fonction d'utilité pour les pommes sera plus élevée que pour les oranges.
- **Probabilité** : Si vous lancez un dé équilibré, la probabilité d'obtenir un 6 est de 1/6.
En résumé, alors que la fonction d'utilité est une mesure subjective de la satisfaction ou du bien-être, la probabilité est une mesure objective de la chance ou de la fréquence d'occurrence d'un événement. Ces deux concepts, bien que différents, peuvent parfois être liés, notamment dans des domaines comme la théorie de la décision où les décisions sont prises en tenant compte à la fois des préférences (utilité) et des incertitudes (probabilités).
Donc en conclusion, ChatGPT et ses amis sont encore plus "conciliants" pour ne pas dire l.. c.. que l'on croyait :-))))
Posons la question à ChatGPT :
Le système sur lequel est basé ChatGPT utilise-t-il plus la fonction d'utilité ou les probabilités ?
Le système sur lequel est basé ChatGPT, ainsi que d'autres modèles de langage développés par OpenAI, repose principalement sur des probabilités. Voici comment cela fonctionne :
1. **Probabilités** : Lors de la formation, le modèle apprend à estimer la probabilité des mots ou des séquences de mots suivants en fonction du contexte fourni. Par exemple, après la phrase "Le ciel est...", le modèle pourrait estimer une probabilité élevée pour le mot "bleu" et une probabilité plus faible pour le mot "carré". Ces estimations sont basées sur les données d'entraînement sur lesquelles le modèle a été formé.
2. **Maximisation de la vraisemblance** : Le processus d'entraînement vise à maximiser la vraisemblance des données d'entraînement, ce qui signifie qu'il ajuste ses paramètres pour donner les probabilités les plus élevées aux séquences de mots réellement observées dans les données.
3. **Génération de texte** : Lors de la génération de texte, le modèle utilise ces probabilités pour choisir le mot suivant. Il peut le faire de manière déterministe en choisissant toujours le mot le plus probable, ou de manière stochastique en échantillonnant à partir de la distribution de probabilité.
Cela dit, bien que le modèle soit principalement basé sur des probabilités, des concepts liés à la "fonction d'utilité" peuvent être introduits lors de l'interaction avec le modèle. Par exemple, lors de la réglage fin du modèle ou lors de l'utilisation de techniques comme le "prompt engineering", on peut guider le modèle pour qu'il produise des réponses qui sont "utiles" ou "désirables" pour une tâche ou un contexte particulier. Mais cela est généralement fait en dehors du cadre de formation principal du modèle et est plus lié à la manière dont le modèle est utilisé ou adapté à des tâches spécifiques.
.... On va s'arrêter là :-)))