|
|
| Reconnaître un texte généré par IA | |
| | Nombre de messages : 92 Âge : 35 Localisation : Lausanne Pensée du jour : Ma couronne est ma joie Date d'inscription : 19/09/2023 | Azurlazuly / Pippin le Bref Jeu 3 Oct 2024 - 0:05 | |
| J'utilise l'IA tous les jours, pour des taches du quotidiennes mais aussi pour mes écrits.
Je ne sais pas si je pourrai identifier tous les textes écrits par IA, mais je sais que j'en ai déjà identifié énormément. Plus on lit l'IA plus on se rend compte qu'elle utilise toujours les memes formations de phrases, les memes comparaisons, les memes expressions, et ce peut importe qu'on lui demande d'écrire avec le style de Victor Hugo ou bien qu'on soit plus vague en lui disant d'écrire avec un style littéraire et soutenu. Et peu importe aussi la richesse du prompt qu'on lui propose, l'IA retombe toujours dans ses travers. C'est aussi valable pour des styles plus "casual" même si je vais surtout m'attarder sur le style plus soutenu.
Plusieurs points me mettent la puce à l'oreille :
1) les expressions qui reviennent tous le temps : "sa voix empreinte de", "son regard empreint de", "son ton empreint de", cela est proposé tout le temps dès que je demande à l'ia de reformuler une phrase avec un style soutenu. Il y a aussi "mêlé de" pour parler de deux sentiments en même temps.
2) l'ia n'a aucune notion de verbe fort et de verbe faible, elle n'a pas non plus de problème à utiliser les verbe comme sembler, paraitre, ou bien encore à atténuer sans cesse ses adjectifs avec des "presque", "peu",... Chose qu'un auteur qui a travaillé un minimum son récit ne fait pas si souvent. Pareil pour les adverbes ou des participes présents, dès qu'on demande un style soutenu, l'ia en abuse.
3) il y a souvent un décalage entre le fond et la forme. Ex : récemment j'ai lu une présentation sur un groupe facebook où la personne parlait de l'écriture pour comment moyen de gérer son stress. Et bien le langage tout du long était très soutenu, pourquoi pas, mais le mot stress semblait venir de nulle part. Je soupçonne que dans son prompt elle a du mettre le mot stress et l'ia l'a gardé sans l'adapter.
4) L'ia abuse aussi des comparaisons avec "comme" ou bien encore de reformulations d'idées dans la même phrase. C'est surement une figure de style littéraire qui doit avoir un nom mais je ne le connais pas.
ex : Chaque ligne tracée sur une page vierge ou chaque mot couché sur du papier était une occasion d'exprimer ma sensibilité.
Ça peut être sympa de temps en temps mais pas toutes les deux phrases.
5) L'ia a besoin d'expliciter sans cesse les actions et les pensées des personnages. Si le personnage se gratte la tête, l'ia rajoutera une explication comme "ce geste trahissait son incompréhension" et l'ia utilise souvent les mot "trahir" ou "révéler", dans ces cas là.
6) L'ia n'a pas de problèmes à faire des répétitions assez lourdes
ex : "Elle se tenait là, immobile, telle une statue de marbre, et pourtant, sous son immobilité apparente, il devinait une tension, presque imperceptible, qui trahissait un trouble profond." Cette phrase est très typique, elle comprend aussi le point précédent et son sens est assez bancal en passant.
C'était une liste non exhaustive de ce qui m'est venu rapidement et de ce qui est concret et visible. Mais, il y a aussi, comme cela a été mentionné un lissage, quelque chose de très impersonnel. Les émotions sont fades, il n'y a pas beaucoup de tension. J'ai l'impression d'être en focalisation externe permanente, mais avec un narrateur qui n'a aucune personnalité. Et plus on lit de l'IA, plus on repère cette pâte ou plutôt cette non pâte.
Pour finir, je suis d'accord pour dire qu'il ne faut pas se fier aveuglément aux logiciels de détection de l'IA, mais, par contre, j'ai tendance à croire que quand ces logiciels disent que le texte a été écrit à 100% par l'IA, on peut faire confiance. À chaque fois que j'ai senti un texte écrit par l'IA et que je l'ai fait testé, c'était à 100%. J'en ai trouvé sur Fyctia et sur d'autre plateforme de partage d'écrits. Il me semble que des auteurs un peu aguerris ne pourraient pas utiliser de l'IA pure, et j'ai l'impression que les gens qui osent poster des textes écrits par l'IA sans retouche sont principalement des débutants, qui se laissent impressionnés parce qu'ils n'ont pas encore beaucoup écrit. |
| | Nombre de messages : 100 Âge : 32 Date d'inscription : 08/02/2024 | jln92 / Barge de Radetzky Jeu 3 Oct 2024 - 1:28 | |
| Très justes tous ces points Azurlazuly, c'est bien vu de ta part ! |
| | Nombre de messages : 1263 Âge : 37 Date d'inscription : 11/07/2022 | Mika / Tentatrice chauve Jeu 3 Oct 2024 - 3:41 | |
| - HilnaMacPhom a écrit:
- quand une lettre de motivation est faite via ChatGPT, je le calcule direct : la personne ne "dit" rien, elle se contente de reformuler l'annonce. Il n'y a rien de personnel.
Pas sûr que ce soit un bon moyen de détecter une IA. Beaucoup d'écrits humains inculant des lettres de motivation ou des livres entiers sont creux, à voir l'exemple du bouquin d'Enthoven cité plus haut. - Azurlazuly a écrit:
- Plusieurs points me mettent la puce à l'oreille
Qu'en est-il des nouvelles versions de ChatGPT ? Est-ce qu'elles corrigent les points cités plus haut, i.e. la présence d'adverbes, de participes passés, les répétitions d'idées etc ? Est-ce vraiment un gage qu'il s'agit d'une IA, car ce sont des remarques que je dis régulièrement après BL, donc des "erreurs" ou plutôt des abus de langage que font beaucoup d'humains ? Sans compter que certains auteurs connus utilisent parfois beaucoup d'adverbes, sans que ce soit dérangeant, ni qu'on se dise que le texte est généré par une IA, car ils ont été créés avant l'IA. Est-ce qu'on se le dirait de nos jours, basé sur ces critères ? Je pense à JP Jaworski ou à Robin Hobb par exemple qui n'hésitent pas employer des adverbes. |
| | Nombre de messages : 92 Âge : 35 Localisation : Lausanne Pensée du jour : Ma couronne est ma joie Date d'inscription : 19/09/2023 | Azurlazuly / Pippin le Bref Jeu 3 Oct 2024 - 12:18 | |
| J'utilise la dernière version et tous les points que j'ai cité sont tirés de textes que j'ai généré dans la semaine. - Citation :
- Est-ce vraiment un gage qu'il s'agit d'une IA, car ce sont des remarques que je dis régulièrement après BL, donc des "erreurs" ou plutôt des abus de langage que font beaucoup d'humains ?
Chaque remarque prise indépendamment peut effectivement se trouver dans des textes qui ne sont pas générés par IA, c'est l'accumulation qui pose problème. |
| | Nombre de messages : 77 Âge : 41 Date d'inscription : 18/09/2024 | Laurent_Lhomme / Pippin le Bref Jeu 3 Oct 2024 - 17:58 | |
| - Valatha a écrit:
- Bonjour,
C’est assez marrant que vous parlez de cela parce qu’en avril 2024, j’avais pensé à un petit jeu. Mais il se devait d’être fait honnêtement et nullement pour discréditer l’humain ou l’AI : donc sans parti pris. Le concept aurait été le suivant. Texte 1 : On pond un petit texte d’une soixantaine de mots spécialement pour le jeu (nullement besoin d’être trop long). Texte 2 : on demande à la Chat GPT de le reformuler. Texte 3 : on crée une version Mix (l’original avec des reformulations de la Chat GPT). Ensuite, les membres votent pour LA version qu’ils préfèrent sans savoir si c'est humain, Chat GPT ou Mix (évidemment, pas à chaque fois les afficher dans l’ordre Texte 1, Texte 2, Texte 3, ça serait trop facile). Et finalement, le membre qui a proposé ces trois versions nous dit quelle version a eu le plus de votes. On pourrait peut-être être très surpris des résultats. Mais cela doit se faire avec intégrité.
En espérant donner une idée pertinente sans insulte ou préjugés. Merci beaucoup. C'est une idée intéressante on pourrait faire quelques expériences à la Frankenstein Pour ma part, je crois qu'on est les derniers humains à écrire des livres on sera remplacés par des robots De toute façon, qu'est-ce qu'une IA ? Les IA de 2024 sont très expérimentales. Mais celles de 2100 ? Si ça se trouve, elles croiront être des humains et il n'y aura aucun moyen de le détecter ni pour elle, ni pour les autres Non, je crois que le moyen le plus fiable, c'est qu'une IA ne fait pas de fautes d'orthographe, donc envoyer ses manuscrits truffés de faute pourrait être une bonne alternative |
| | Nombre de messages : 1286 Âge : 43 Localisation : La Paz Bolivie Date d'inscription : 21/01/2022 | CalédoniaRob / Tentatrice chauve Jeu 3 Oct 2024 - 18:08 | |
| - Laurent_Lhomme a écrit:
Non, je crois que le moyen le plus fiable, c'est qu'une IA ne fait pas de fautes d'orthographe, donc envoyer ses manuscrits truffés de faute pourrait être une bonne alternative ouf, je suis sauvé Personne ne croira que mes textes ne sont pas de moi. |
| | Nombre de messages : 77 Âge : 41 Date d'inscription : 18/09/2024 | Laurent_Lhomme / Pippin le Bref Jeu 3 Oct 2024 - 18:11 | |
| | Nombre de messages : 679 Âge : 38 Localisation : Brest Pensée du jour : Pas de panique Date d'inscription : 02/07/2021 | HilnaMacPhom / Hé ! Makarénine Jeu 3 Oct 2024 - 22:21 | |
| - Mika a écrit:
- HilnaMacPhom a écrit:
- quand une lettre de motivation est faite via ChatGPT, je le calcule direct : la personne ne "dit" rien, elle se contente de reformuler l'annonce. Il n'y a rien de personnel.
Pas sûr que ce soit un bon moyen de détecter une IA. Beaucoup d'écrits humains inculant des lettres de motivation ou des livres entiers sont creux, à voir l'exemple du bouquin d'Enthoven cité plus haut.
Me suis mal exprimée. Je voulais dire, sans avoir passé du temps à le décrire précisément, que ces lettres de motivation ont un côté très impersonnelles, tout en reformulant l'annonce. Il y a une sorte de pattern, que je n'ai pas essayé de décrire précisément (n'utilisant pas de mon côté ChatGPT) mais qui me "saute aux yeux". Or ça fait des années que je recrute, et ces patterns sont apparus depuis 15 mois environ. Auparavant, bien sûr il y avait plein de lettre de motivation creuses, mais elles n'étaient pas creuses de la même manière. Ok, je suis pas claire, du coup j'apporte rien au débat ; laissez-moi 5 minutes et je trouve une IA pour mieux m'exprimer. Edit : - Azurlazuly a écrit:
- J'ai l'impression d'être en focalisation externe permanente, mais avec un narrateur qui n'a aucune personnalité. Et plus on lit de l'IA, plus on repère cette pâte ou plutôt cette non pâte.
voilà, c'est exactement ça. On ne sent rien de personnel dans ces lettres, alors que même avec une lettre type ultra basique, les personnes se dévoilent sans s'en rendre compte même un tout petit peu. Alors que dans les lettres faites avec ChatGPT, c'est comme si c'était un robot qui... ah. Oui, ça s'explique. |
| | Nombre de messages : 1263 Âge : 37 Date d'inscription : 11/07/2022 | Mika / Tentatrice chauve Ven 4 Oct 2024 - 2:06 | |
| - HilnaMacPhom a écrit:
- Me suis mal exprimée. Je voulais dire, sans avoir passé du temps à le décrire précisément, que ces lettres de motivation ont un côté très impersonnelles, tout en reformulant l'annonce. Il y a une sorte de pattern, que je n'ai pas essayé de décrire précisément (n'utilisant pas de mon côté ChatGPT) mais qui me "saute aux yeux".
En lisant vos interventions, j'ai l'impression que si on utilise souvent l'IA, on arrive à en discerner les failles. - CalédoniaRob a écrit:
ouf, je suis sauvé Personne ne croira que mes textes ne sont pas de moi. - Valatha a écrit:
C’est assez marrant que vous parlez de cela parce qu’en avril 2024, j’avais pensé à un petit jeu. Mais il se devait d’être fait honnêtement et nullement pour discréditer l’humain ou l’AI : donc sans parti pris. C'est plus ou moins l'idée de MrPhi dans sa vidéo (lien plus haut), sauf qu'il l'a testé avec des copies de philo. Il n'a même pas pris celles d'élèves, car l'IA a un niveau meilleure que niveau bac. Il a fait 3 groupes : des copies soit 1) générées par l'IA, 2) générées par l'IA mais avec le style d'un auteur et 3) écrites par lui-même ou par des profs de philo. 500 personnes ont passées le test avec le but d'identifier les copies humaines de celles générées par l'humain. Globalement, personne n'a réussi à discerner l'IA de l'humain. Seules les profs de philo (avec l'habitude de corriger de l'humain) et ceux familiers avec l'usage d'une IA ont eu de meilleurs scores, sans que ce soit fou fou. Je crois que les données ne sont même pas significatives (c'est-à-dire pas mieux que des réponses au hasard). Ceux habitués à utilisés l'IA dans ce fil confirment ces résultats, car ceux de l'étude de MrPhi, habitués à l'utilisation de ChatGPT, arrivent mieux à identifier le style de l'IA. Peut-être ceux habitués à faire des beta-lectures seraient meilleurs aussi, car ils connaissant les fautes basiques d'un humain ? Mais je pense que plus on augmente le nombre de textes et le nombre de groupes étudiés, plus mauvais on sera. Et les nouvelles versions de l'IA corrigeront probablement ces problèmes, ce qui fera qu'il sera de plus en plus difficile de distinguer les deux. - HilnaMacPhom a écrit:
- laissez-moi 5 minutes et je trouve une IA pour mieux m'exprimer.
|
| | Nombre de messages : 830 Âge : 59 Localisation : A l'ouest Pensée du jour : Le passé n'existe plus, le futur pas encore: il faut vivre au présent ! Date d'inscription : 29/08/2023 | Maxaler / Double assassiné dans la rue Morgue Ven 4 Oct 2024 - 9:39 | |
| Sur une vision à long terme, je ne partage pas l'idée que l'IA générative va s'améliorer pour l'écriture de textes. En effet, l'IA est "entrainée" sur la base de corpus injecté massivement dans sa base de données. Ce corpus est issu notamment de textes présents sur internet (articles, publications, wiki, etc.): l'IA n'invente rien, elle en est incapable parce qu'elle n'est pas conçue pour le faire. Lorsqu'on lui pose une question ou qu'on lui donne un contexte, ses modèles mathématiques analysent des milliards de phrases dans lesquels les mots clés de la question apparaissent. Elle va sélectionner les phrases (ou groupes de mots) les plus fréquents (ceux qui sont les plus proches de la moyenne avec un écart-type le plus réduit) pour générer sa réponse. Dans la mesure où de plus en plus de textes sont générés ... par une IA ou des auteurs qui l'utilisent, il devrait en résulter une plus grande homogénéité des textes (formulations, vocabulaires ...) et donc un appauvrissement du corpus général autour des mots/formulations les plus souvent employées: c'est un cercle vicieux de dégénérescence. De plus, l'IA est bridée par ses concepteurs qui lui interdisent d'aborder des thèmes extrêmes (homophobie, racisme, haine, etc.) et d'utiliser des mots pouvant choquer (non non, je ne citerai pas d'exemple ). Donc elle ne peut que rester dans le cadre de la bien pensence, quelque chose de lisse et normé. A long terme, ces méthodes d'apprentissage et ces restrictions ne peuvent que produire un appauvrissement de la capacité générative de l'IA pour écrire des textes originaux. Par contre, pour générer du code informatique, pour résumer des théories physiques, économiques ou présenter de grandes lignes historiques, l'IA devient incontournables dès aujourd'hui et deviendra indispensable rapidement. Elle est de plus en plus intégrée dans des logiciels d'analyses de données afin de faciliter le travail statistique et d'utiliser le temps gagné à l'interprétation des résultats dans leur contexte, ce que l'IA ne sait pas bien faire. Néanmoins, j'entendais hier sur France Inter une chronique relative à OpenAI, qui vient de lever 6,5 milliards de dollars de fonds pour ChatGPT, mais qui, en même temps, annonce une perte annuelle de 5 milliards. Elle va augmenter l'abonnement payant de 20$ à 40$ mais cela ne devrait pas suffire à rééquilibrer les comptes. Selon l'analyste, cette situation est spécifiques aux bulles technologiques dont la finalité est d'éclater. Il devrait en rester quelque chose, qui servira à repartir sur une base moins frénétique. |
| | Nombre de messages : 369 Âge : 33 Localisation : Strasbourg Date d'inscription : 31/01/2017 | Lilia / Tapage au bout de la nuit Ven 4 Oct 2024 - 9:55 | |
| - Citation :
- De plus, l'IA est bridée par ses concepteurs qui lui interdisent d'aborder des thèmes extrêmes (homophobie, racisme, haine, etc.) et d'utiliser des mots pouvant choquer (non non, je ne citerai pas d'exemple Laughing). Donc elle ne peut que rester dans le cadre de la bien pensence, quelque chose de lisse et normé.
chatGPT, oui. Mais j'ai déjà utilisé au moins une IA, sur un autre site, qui n'a pas cette limitation. Alors, bon, en vrai, mon but n'était pas de tester ses limites, donc je ne sais pas si c'est possible de lui faire générer du racisme ou ce genre de chose, mais elle n'était pas autant bridée que chatGPT sur beaucoup de sujet, c'est sur (et les gros mots étaient légions) |
| | Nombre de messages : 141 Âge : 74 Localisation : Pyrénées-Orientales Date d'inscription : 22/08/2014 | favdb / Barge de Radetzky Ven 4 Oct 2024 - 12:54 | |
| - Maxaler a écrit:
- ...
Par contre, pour générer du code informatique, pour résumer des théories physiques, économiques ou présenter de grandes lignes historiques, l'IA devient incontournables dès aujourd'hui et deviendra indispensable rapidement. Elle est de plus en plus intégrée dans des logiciels d'analyses de données afin de faciliter le travail statistique et d'utiliser le temps gagné à l'interprétation des résultats dans leur contexte, ce que l'IA ne sait pas bien faire... Je suis assez d'accord avec ça. Fondé sur mon (mes) expérience(s), quand on se cantonne à un domaine technique les IA testées sont assez (très) performantes. Mais le manque d'imagination et d'originalité ressort très vite. L'aspect qui m'agace un peu c'est l'aspect "policé" des réponses. Jamais rien de choquant, c'est toujours emprunt de "vous avez raison" ou autre flagornerie du même acabit. C'est ce qui ressort de nos différents témoignages. |
| | Nombre de messages : 2858 Âge : 40 Localisation : Antichambre de Louis XIV Pensée du jour : CI-GÎT TENGAAR QUI SUCCOMBA À UNE SURDOSE DE FANFICTION Elle ne l'a pas volé, on l'avait prévenue, déjà que la fantasy c'est pas de la littérature, alors la FF, bon... enfin, c'est triste quand même Date d'inscription : 21/04/2017 | Tengaar / (de Dunkerque) Ven 4 Oct 2024 - 17:14 | |
| Alors en vrai, il passe vite au-dessus de ses bridages vu qu'il ne "comprend pas" ce qu'il écrit. En lui faisant écrire une scène avec un oncle qui part pêcher avec son neveu ado, il m'a sorti une scène digne des pires fanfics sans que je ne lui demande rien ... Il suffit juste que vous lui demandiez un truc un peu provoquant et il va vous le faire. Tout ce que vous reprochez à l'IA, c'est juste à cause des prompts pas assez explicites. Je reste persuadée qu'avec des très bons prompts, impossible de déterminer IA et auteur. Le seul truc, c'est la consistance sur un texte vraiment long parce que l'IA a une mémoire de poisson rouge. Pour une nouvelle ça va mais pour un roman, elle ne peut pas gérer tous les paramètres. |
| | Nombre de messages : 92 Âge : 35 Localisation : Lausanne Pensée du jour : Ma couronne est ma joie Date d'inscription : 19/09/2023 | Azurlazuly / Pippin le Bref Ven 4 Oct 2024 - 18:56 | |
| - Citation :
- Il suffit juste que vous lui demandiez un truc un peu provoquant et il va vous le faire. Tout ce que vous reprochez à l'IA, c'est juste à cause des prompts pas assez explicites.
J'ai suivi des formations pour bien faire les prompts et malgrè cela, aujourd'hui, j'affirme qu'il n'est possible de tout faire faire à l'IA. Même en lui demandant d'être provocant, il ne le sera jamais autant qu'un être humains peut l'être. Déjà à cause des brides : typiquement, il est quasiment impossible avec chatGPT ou Gemini de lui faire parler de sexe, je ne parle pas de d'écrire une scène de sexe, mais bien de parler de sexe. Il m'a censuré un paragraphe que je lui ai soumis parce qu'il y avait le mot stripteaseuse dedans, alors que c'était juste un dialogue entre deux personnages, rien de sexuel. Dès qu'il y a une scène avec ce qu'il estime être un non-consentement, il le passe en rouge avec des warning, par exemple une personne qui embrasse une autre sans lui demander son avis. D'autre part, je pense qu'il y a des qualités humaines qu'il ne pourra pas singer. Par exemple l'humour et particulièrement l'absurde, qui nécessite de s'extraire d'une situation pour en sortir le coté incongru. Et je crois que le problème est le même pour ce qui est provocant. POur provoquer, cela nécessite forcément une originalité, ce qui a déjà été fait ne provoque plus vraiment. - Citation :
- Je reste persuadée qu'avec des très bons prompts, impossible de déterminer IA et auteur.
Cela dit, je ne contredis pas ceci. Avec un bon prompt on arrive à quelque chose de très crédible, mais qui ne pourra, selon moi, jamais être ni très provocant, ni très original. Mais, bon nombres d'auteurs ne sont ni originaux, ni provocants donc effectivement, on pourra s'y tromper. - Citation :
- Le seul truc, c'est la consistance sur un texte vraiment long parce que l'IA a une mémoire de poisson rouge. Pour une nouvelle ça va mais pour un roman, elle ne peut pas gérer tous les paramètres.
Ce point est en train d'être amélioré en ce moment. Dans la dernière version de ChatGPT, a justement été mise en place en meilleure mémoire des discussions précédentes, et je pense que l'IA pourra arriver à un bon niveau sur ce point, qui ne reste que technique finalement. |
| | Nombre de messages : 1047 Âge : 40 Localisation : Au pays de l'Oiseau d'Or Date d'inscription : 12/07/2023 | Sarashina / Effleure du mal Ven 4 Oct 2024 - 19:31 | |
| - Citation :
- Il suffit juste que vous lui demandiez un truc un peu provoquant et il va vous le faire. Tout ce que vous reprochez à l'IA, c'est juste à cause des prompts pas assez explicites.
Mouais je ne suis pas convaincue. J'ai essayé de lui faire écrire de la satire et de l'humour noir sans aucun succès. J'avais tenté, pour rire, de lui demander d'écrire une scène dans laquelle Macron croisait Dracula (Vlad) au détour d'un couloir de Versailles pour voir ce que ça pouvait donner. En gros les deux personnages blablatait des mondanités plates puis repartaient chacun de son côté comme si de rien n'était... Alors j'ai dit à chatGPT que Macron devait avoir peur vu que c'était un vampire ! 2è essai : Macron a peur, Vlad le rassure et ils blablatent comme des potes... Je passe encore un ou deux tests (un par ex où les gardes du corps surgissent, car je voulais une confrontation, mais entretemps Dracula s'est barré lol)... Et en dernier lieu comme j'en ai eu marre, je dis à ChatGPT que Dracula massacre les gardes et là PAF, censure ! Il me répond qu'il ne peut pas écrire de scène violente (ou un truc du genre qui incite à la violence pfff!) |
| |
|
|