Contenu et IA

Contenu et IA : ce qui se cache derrière le battage médiatique de l'année

ChatGPT et les outils similaires ont fait beaucoup parler d'eux ces derniers mois. Ils peuvent être d'une grande aide, notamment pour la création de contenu. En même temps, tu dois être conscient des limites de ces outils et comprendre comment obtenir de très bons résultats.

Dans cet article, je t'explique pourquoi la nouvelle génération d'offres d'IA est tellement meilleure. C'est le début d'une série sur le sujet. Le sujet de l'intelligence artificielle connaît des phases d'exubérance et d'abattement depuis maintenant plusieurs décennies.

Les prévisions d'Elon Musk en matière de véhicules autonomes sont bien connues : pendant un certain temps, le domaine a fait des progrès rapides. Les taxis et les bus contrôlés par ordinateur semblaient à portée de main. Mais la courbe des améliorations s'est rapidement aplatie et les prévisions dans ce domaine sont devenues beaucoup plus prudentes. J'ai donc pris l'habitude de faire preuve d'un scepticisme sain à l'égard de ces sujets à la mode. 

Mais elle s'est vite envolée avec ChatGPT. Lorsque j'ai pu l'essayer pour la première fois, j'ai été aussi stupéfait qu'enthousiaste : ce "chatbot" fonctionnait enfin comme ses nombreux prédécesseurs l'avaient seulement promis. C'était presque effrayant.

Modération de contenu ChatGPT
Les outils d'IA comme ChatGPT ont de nombreux domaines d'application

ChatGPT répond aux questions de manière étonnamment humaine. Et il semble avoir une réponse à chaque question - ou plusieurs. Il adapte dynamiquement le type, la longueur et la complexité de l'output en fonction de mes instructions. Il comprend le contexte de la conversation et peut se référer à des sujets et des faits qui ont été abordés auparavant. Il traite les inputs longs et complexes avec peu de retard. Et il comprend et répond également en allemand.

Générateur de texte étonnamment puissant

Il est vite devenu clair que ChatGPT n'est pas seulement un assistant IA puissant, mais aussi un générateur de texte IA.

Mes précédentes tentatives avec ce type d'outils ont toujours été de grandes déceptions. Les produits n'ont jamais été à la hauteur des promesses du marketing. Ils étaient peut-être bons pour stimuler les idées. On pouvait en extraire quelques bribes. Mais les textes étaient rarement utilisables dans leur ensemble.

Il en va tout autrement avec ChatGPT et ses variantes et concurrents : Utilisés correctement, ils peuvent fournir non seulement des idées, mais aussi un concept complet et au moins un bon premier jet.

"*" indique les champs requis

Je souhaite m'abonner à la newsletter pour être informé des nouveaux articles de blog, des ebooks, des fonctionnalités et des nouvelles de WordPress. Je peux retirer mon consentement à tout moment. Merci de prendre connaissance de notre politique de confidentialité.
Ce champ sert à la validation et ne doit pas être modifié.

En tant que personne qui passe une grande partie de sa vie à écrire et à éditer des textes, je n'aime pas dire cela : ce que ChatGPT fournit est souvent du même niveau que ce que j'ai vu de la part d'auteurs* humains. Parfois, c'est même mieux.

Mais les limites et les manies spéciales de ces nouveaux outils d'IA deviennent également évidentes après des tests intensifs. Nous y reviendrons plus loin.

Comment ce progrès est-il devenu possible ?

Mais comment ce saut qualitatif soudain a-t-il été possible ? Trois points sont généralement cités :

  1. Données d'entraînement : Les modèles d'IA actuels apprennent à partir de contenus existants (textes, images, audio, code, etc.). La quantité de données déjà disponibles sous forme numérique a augmenté rapidement, ce qui aide énormément l'entraînement.
  2. Puissance de calcul : les ordinateurs et composants spécialisés ont considérablement accéléré les processus d'entraînement, permettant des modèles plus grands et plus complexes.
  3. Les algorithmes : Enfin, il y a eu des progrès importants sous le capot. Par exemple, la méthode "Transformer" est considérée comme l'une des principales raisons pour lesquelles l'IA est aujourd'hui capable de comprendre et de générer des textes bien mieux qu'il y a quelques années.

Il est également impressionnant de voir le nombre de "paramètres" des modèles linguistiques au cours des dernières années. Plus de paramètres permettent au modèle de coder plus de connaissances et de gérer des tâches plus complexes :

  • 2019, GPT-2 : 1,5 milliard de paramètres
  • 2020, GPT-3 : 175 milliards de paramètres
  • 2022, PaLM: 540 milliards de paramètres
  • 2022, GPT-4 : environ 1 billion de paramètres
  • 2022. Claude: environ 10 billions de paramètres

Ces chiffres sont fascinants, mais les modèles plus complexes ne sont pas toujours automatiquement supérieurs ou le meilleur choix. La tendance actuelle est d'entraîner les modèles plus spécifiquement à certaines tâches et de les ajuster de manière appropriée. Il faut donc s'attendre à ce qu'en plus des outils généraux, il y ait de plus en plus d'offres destinées à un objectif clairement défini. 

Dans ce contexte, les modèles qui sont entraînés avec des données individuelles sont également intéressants : Les entreprises peuvent par exemple intégrer tous leurs documents dans un tel système afin d'obtenir des réponses dynamiques.

Une autre mesure intéressante qui a récemment été mise en avant est la longueur du contexte. Plus cette valeur est élevée, plus l'outil peut inclure de contenu dans une conversation. Plus de contexte aide donc l'IA à mener des conversations plus longues, mais aussi à traiter de plus grandes entrées. 

Selon le cas d'utilisation, cela peut faire une différence considérable lorsqu'une offre comme Anthropics Claude traite et analyse des livres entiers en quelques secondes, par exemple.

La longueur du contexte est mesurée en "tokens", un tokens correspondant à peu près à un mot. Quelques exemples :

  • GPT-2 : 1 024 jetons
  • GPT-3 : 2 048 jetons (jusqu'à 16 000 jetons dans une nouvelle version)
  • PaLM : 65 536 jetons
  • GPT-4 : jusqu'à 32 000 jetons
  • Claude : probablement autour de 100 000 tokens

Un contexte plus long nécessite donc plus de puissance de calcul et de mémoire. C'est donc un défi technique d'augmenter ces valeurs.

Trois options pour utiliser de tels outils

Pour ceux qui souhaitent utiliser ces outils, il existe actuellement trois options principales :

  1. Dans le cloud. ChatGPT, Claude, mais aussi des générateurs d'images comme MidJourney ou Stable Diffusion sont utilisables en tant que Software-as-a-Service. Les propres données sont donc traitées sur les serveurs des fournisseurs. Cela peut être problématique selon le type d'informations. En même temps, en tant qu'utilisateur*, tu dois te contenter de l'interface et des options de l'offre. Pour cela, des entreprises comme OpenAI, Microsoft, Google ou Anthropic ont des serveurs spécialisés et particulièrement performants. 
  2. Via une API. OpenAI, en particulier, propose activement ses interfaces. Tous les modèles d'IA ne sont pas immédiatement disponibles pour tous. Cependant, il est possible de créer ses propres applications ou d'utiliser des applications tierces. Le traitement des données se fait toujours sur les serveurs des entreprises d'IA. Mais dans ce cas, il est possible de personnaliser l'endroit et la manière d'utiliser l'offre.
  3. Sur ton propre ordinateur ou serveur. Non seulement les ordinateurs spécialisés sont devenus plus puissants, mais aussi les ordinateurs portables, les tablettes et même les smartphones disponibles dans le commerce. Avec des appareils modernes et équipés en conséquence, cela peut suffire pour utiliser des outils comme les assistants IA directement sur ton propre ordinateur. Ils ne sont pas aussi performants que les applications haut de gamme dans le cloud. Mais ce n'est pas toujours nécessaire. En revanche, les données personnelles restent sur l'ordinateur. De plus, le logiciel et le modèle peuvent être choisis en fonction de tes besoins. Un exemple est LM Studio pour Windows et Mac, qui te permet d'utiliser des modèles linguistiques comme la famille Llama de Meta sur ton propre PC.

En outre, il existe actuellement une autre tendance qui, selon moi, va s'imposer encore plus : Les assistants IA intégrés dans d'autres offres. Les exemples sont "Copilot" dans Microsoft 365, "Firefly" d'Adobe, Bing Chat ou "Search Generative Experience" (SGE) de Google, une expérience expérimentale soutenue par l'IA.

Les limites des outils d'IA

Dans d'autres articles de cette série, je te montrerai plus en détail comment j'utilise personnellement ces offres pour rechercher des sujets, générer des idées et des concepts et créer des textes et des images. 

Malgré tout l'enthousiasme que suscitent les opportunités et les possibilités offertes par ces nouveaux outils : ils ont des limites que tu dois connaître, et il y a des critiques justifiées.

Une offre comme ChatGPT a par exemple appris à donner une réponse correcte du point de vue linguistique et qui sonne sensée. C'est le point de mire. En revanche, la validité des chiffres et des faits cités ne l'est pas. Ils peuvent être vrais ou inventés de toutes pièces. Tu ne devrais donc pas reprendre les déclarations sans les vérifier.

Pour certaines tâches, ces outils sont complètement dépassés. Par exemple, ils ne sont souvent pas très à l'aise avec les chiffres et les calculs.

Les fournisseurs essaient d'y remédier. D'une part, les assistants IA doivent être éduqués à plus d'honnêteté. S'ils ne savent pas exactement quelque chose, ils doivent le dire clairement. D'autre part, OpenAI a ajouté des plugins comme option: Cela permet à ChatGPT d'accéder à des outils et des sources d'informations spécialisés pour certains sujets et tâches. Bing Chat est un autre exemple : il indique les sources de ses réponses avec des liens et précise s'il n'a pas pu trouver une information.

De plus, les connaissances d'un assistant IA comme ChatGPT ou Claude ne vont souvent que jusqu'à une certaine date. Tout ce qui s'est passé depuis est inconnu. Le processus d'entraînement d'une telle IA est si complexe et si long qu'il n'est pas facile d'ajouter de nouvelles informations. Il faut en être conscient pour certains sujets.

Un autre problème est en outre qu'une IA peut diffuser et donc renforcer les préjugés et les fausses informations qu'elle a trouvés dans ses données d'entraînement. Après tout, l'IA ne comprend pas ce qu'elle fait là. En général, elle ne vérifie pas non plus et ne fait pas de recherches.

Ce qui me manque de temps en temps avec les assistants IA au quotidien : ils n'apprennent pas à me connaître et ils n'apprennent pas des conversations précédentes. Comme décrit ci-dessus, il y a une certaine longueur de contexte par chat. Mais le contexte se termine dans tous les cas avec le chat actuel. Si je démarre une nouvelle conversation, l'assistant IA ne sait rien des interactions précédentes. Mon espoir est que ces offres deviennent encore plus personnelles à l'avenir. SHO.AI le promet à peu près.

Critique des outils d'IA

Une critique fondamentale des outils comme ChatGPT pour les textes ou Stable Diffusion pour les images est le matériel de formation. Comme décrit précédemment, ces données sont indispensables au processus d'apprentissage. Mais souvent, on n'a pas demandé aux auteurs s'ils voulaient ou non mettre leurs œuvres à disposition. Le fait que les générateurs d'images d'IA puissent imiter les styles des artistes a suscité l'émoi. S'agit-il alors d'une violation automatisée des droits d'auteur ? Ou est-ce comparable aux œuvres humaines, qui peuvent également être inspirées et influencées par les œuvres d'autres personnes ? Ce sont des questions passionnantes qui nous accompagneront encore dans les années à venir. 

Le débat à ce sujet est parfois houleux. Ce n'est pas étonnant : certains artistes se voient utilisés comme étriers involontaires pour une IA qui pourrait en retour les rendre superflus. Et les entreprises gagnent de l'argent avec un produit qui s'est servi gratuitement de leur travail.

OpenAI propose désormais une option permettant de bloquer au moins le contenu de son propre site web à de telles fins de formation dans le futur.

La question se pose également de savoir si les résultats de ces outils peuvent être utilisés. Je me suis entretenu avec l'avocat Dr. Carsten Ulbricht à ce sujet. Comme souvent, il n'est pas possible de répondre à cette question par un oui ou par un non.

Enfin, la question de savoir si les œuvres sont protégées lorsqu'elles sont créées par une IA et qui est considéré comme l'auteur est totalement ouverte. Certains considèrent que le critère est la quantité de travail fournie par l'IA et la quantité de travail fournie par l'homme. 

Conclusion sur le contenu et l'IA

Le monde de l'IA a connu un boom et un engouement au cours des derniers mois. Comme j'espère l'avoir montré dans cet article, l'enthousiasme n'est pas totalement déraisonnable. Les progrès sont clairement perceptibles. Les outils peuvent être utilisés pour des tâches quotidiennes et peuvent être d'une grande aide.

Malgré tout cela, ils ne sont pas parfaits, ils font des erreurs, ils réagissent de manière inattendue ou ils échouent complètement dans une tâche (et peuvent même le nier). De plus, il y a des critiques légitimes sur la façon dont ces outils fonctionnent et sur la façon dont ils ont acquis leurs compétences.

En gardant ces points à l'esprit, je montrerai dans la prochaine partie de la série comment j'utilise différents outils d'IA pour la créativité et la productivité.

Tes questions sur le contenu et l'IA

Quelle est ton opinion sur l'intelligence artificielle dans le domaine du contenu ? Quelles sont les questions qui restent ouvertes ? N'hésite pas à nous le dire dans les commentaires. Tu souhaites être informé des autres articles sur WordPress et WooCommerce ? Alors suis-nous sur LinkedInFacebook, Twitter ou via notre newsletter.

As-tu aimé cet article ?

Tes évaluations nous permettent d'améliorer encore plus notre contenu.

Laisse un commentaire

Ton adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués d'un *.