this post was submitted on 26 Apr 2024
16 points (100.0% liked)

Forum Libre

729 readers
16 users here now

Communautés principales de l'instance

Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org

Une communauté pour discuter de tout et de rien:

Les mots d'ordre sont : respect et bienveillance.

Les discussions politiques sont déconseillées, et ont davantage leur place sur

Les règles de l'instance sont bien entendu d'application.

Fils hebdomadaires"

"Demandez-moi n'importe quoi"

Communautés détendues

Communautés liées:

Loisirs:

Vie Pratique:

Communautés d'actualité

Société:

Pays:

Communauté de secours:

founded 1 year ago
MODERATORS
 

Hello tout le monde,

Réflexion que je me faisais à l'instant: actuellement, tout le monde se moque un peu du ton très pompeux et sérieux des IA, qui les rendent rapidement détectables.

Que se passera-t-il le jour où cela ne sera plus le cas? Imaginez un bot capable de s'exprimer comme un-e utilisataire normal-e, donc avec ses tics de langages, ses fautes de grammaire, ses typos, etc., et qui en plus posterait ou commenterait à une fréquence similaire à un humain?

Imaginez ensuite que ces bots, il y en ait des milliers.

Le premier scénario qui vient à l'esprit c'est clairement la promotion de produits, puisque ces recommendations paraîtront légitimes.

Le second c'est des forums comme Lemmy ou Reddit où une partie non négligeable des membres seraient en fait des bots, indétectables. On peut imaginer un bot qui génère une image de chat par IA et poste toutes les semaines une photo différent du "même chat".

Qu'en pensez-vous?

top 50 comments
sorted by: hot top controversial new old
[–] [email protected] 11 points 6 months ago (1 children)

C'est pas déjà le cas ? Les espaces commentaires c'était génial il y a 20 ans, mais ça s'est vite degradé. il y a vite eu des campagnes de "brigading politique", puis les ferme de troll Sino-Russes et maintenant en effet on a des LLM qui postent.

Je pense que sur des commus plus détendues ou des petits forums ce sera pas un problème, sur des gros trucs, le problème n'est pas nouveau. Rappelle toi de reddit et de certains threads dès que ça parlait immigration/guerre par exemple (Puis certains commentaires youtube aussi). On ne me fera pas croire qu'il y a pas des campagnes de brigading organisé. Il parait m6eme qu'on peut revendre des comptes qui ont beaucoup de karma. Les chat bottés, ça va juste permettre de ne même pas donner une aumône à des gens qui vivent dans la misère mais de laisser un modèle tourner.

[–] [email protected] 6 points 6 months ago

Les chat bottés

Merci pour cette image

Sinon en général d'accord avec ton point, mais la nuance c'est qu'actuellement on sait encore faire la différence entre un bot et un humain en quelques clics (souvent l'historique). Le jour où ça ne sera plus le cas, ça pourrait changer la donne

[–] [email protected] 5 points 6 months ago (1 children)

Après avoir lu quelques commentaires : on pourra peut-être passer vers un modèle où il faut montrer patte blanche sur des plateformes (montrer qu'on est une personne réelle avec une preuve de carte d'identité qui ne permettra de créer qu'un compte à la fois (via un hash des info textuelles (-> implique ocr) ou les infos directement mais autant se brancher à france connect ou équivalent national), ou partir du principe que les inconnus seront des IA jusqu'à preuve du contraire ; si on souhaite une solutions ou les réseaux restent un outil de communication entre humain. Sinon, on pourra juste en avoir rien à faire et se laisser manipuler par les utilisateurs de modèles (ça en parle un peu dans la Fièvre sur canal+)

[–] [email protected] 3 points 6 months ago (1 children)

Intéressant, c'est effectivement le seul moment où se connecter via france connect aura un impact positif que negatif.

Sous condition que l'etat n'emploie pas une armée de bot pour convaincre. L'autre solution est la creation de couche d'internet comme le dark web, gemini et scuttlebutt.

C'est à dire des réseaux privés non centralisé. On en a un exemple avic cyberpunk où le malware rabbit de Bartmoss a provoqué l'effondrement d'internet. J'y ais vu une allégorie de l'IA/capitalisme de surveillance.

[–] [email protected] 3 points 6 months ago (1 children)

Pour les protocoles, le réseau (définition OSI/OP) est déjà décentralisé donc à ce niveau là pas de souci, on est vraiment sur les applications (toujours au sens OSI/IP). Au niveau applications, HTTP, gemini ou autres sont aussi décentralisés. Un des problèmes c'est qu'on se concentre sur quelques sites web (des réseaux sociaux massifs, centralisés et capitalistes). C'est vraiment au niveau des sites webs où il faudra opérer un shift et redécentraliser le web. Pour ce faire, des instances fedivers en mode service publique éviteraient les bots (s'il n'y a que des personnes connues par l'état avec FranceConnect ou équivalent national ça passe). On pourrait aussi avoir des instances fedivers à très petite échelle très défensive sur la fédération pour s'assurer que leurs utilisateurs sont des humains...

[–] [email protected] 1 points 6 months ago (1 children)

Je rajouterais même : des instances du Fediverse où pour rentrer dans le réseau il faudrait nécessairement rencontrer physiquement des membres du réseau

[–] [email protected] 3 points 6 months ago (1 children)

C'est un peu ce à quoi je pensais. Des visios pouvant sans doute finir par êre usurpées sauf si les IAs de détection d'IA finissent par bien flnctionner. La problématique sui se pose alors c'est que les instances serlnt très régionales, et il faudra pouvoir faire des migrations au cas où (du style queer en Vendée ça doit pas être le feu)

[–] [email protected] 1 points 6 months ago (1 children)

C'est sûr, les instances régionales seront pas forcément la meilleure idée

[–] [email protected] 1 points 6 months ago

Je sais. C'est bien la problématique de rencontre en physique. Tout le monde n'aura pas les moyens de se déplacer. Faudrait que j'essaye de chercher quelques bouquins pertinents sur le sujet mais je suis pas très doué pour ça

[–] [email protected] 5 points 6 months ago* (last edited 6 months ago) (1 children)

C’est déjà le cas, et ce, depuis bien plus d’un an. Tu pouvais déjà faire tourner une IA ayant des performances similaires à ChatGPT 3.5 (avec Llama 70B) sur ton ordinateur, sans que cela ne nécessite une connexion internet ou un abonnement. Bien sûr, tu avais besoin d’un PC assez cher, mais aujourd’hui, les modèles plus petits tels que Llama3 leur arrivent à la cheville. Quant à sa version de 70B, elle atteint celle de GPT-4, tandis que la version qui va sortir avec plus de 400B de paramètres le dépasse. Phi-3 Mini (3.8B), un modèle assez proche du niveau de chatgpt fonctionne même sur un Raspberry Pi 3.

Ces modèles peuvent subir des fine-tunes qui suppriment, ajoutent ou encore renforcent des comportements et d’autres capacités, telles que le jeu de rôle ou la programmation. D’ailleurs, la suppression totale du langage pompeux est parmi les fine-tunes les plus répandus.

[–] [email protected] 5 points 6 months ago (3 children)

Si c'est déjà le cas, pourquoi Reddit n'est-il pas envahi de bots indétectables? Je veux dire que quand tu vois un bot sur Reddit, c'est assez flagrant.

Ou alors, c'est peut-être déjà le cas, et les gens que je pense être de vrais humains sont en fait des bots...

[–] [email protected] 6 points 6 months ago (1 children)

Par ce qu'il y a bot et bot... Ils sont pas tous aux petits oignons... Quand Temu nous bombarde on le voit vite, mais quand un troll un peu vener nous sort "ah la la moi vous savez les étrangers..." C'est fou le nombre de comptes tout neuf qui parlent français correctement, rapliquent.

Y'a des campagnes plus ciblées par des gouvernements ou des grosses boites, et là, a moins de voir les comptes tout neuf avec mois 2 de karma, c'est déjà une galère de s'y retrouver

[–] [email protected] 5 points 6 months ago

Intéressant, merci!

[–] [email protected] 3 points 6 months ago

Ceux qui sont indétectables... tu en les detectes pas 😅

C'est un peu comme les cheaters dans les jeux vidéo. Y'a ceux que tu vois qui tirent sur tout le monde à travers la map en courant à 200km/h, et il y a ceux que personne ne voit, mais qui bien souvent sont majoritaires.

[–] [email protected] 3 points 6 months ago

Comme l'a dit un_blob, les bots ne sont pas tous égaux. Quand tu lis un commentaire assez quelconque, tu ne te demandes pas si ça a été écrit par un humain ou un bot

[–] [email protected] 5 points 6 months ago (1 children)
[–] [email protected] 1 points 6 months ago (1 children)

Merci pour les rappels, je connaissais la Dead Internet Theory, c'est effectivement ce qui risque d'arriver.

Pas sûr de voir le lien avec Worldcoin par contre?

[–] [email protected] 2 points 6 months ago* (last edited 6 months ago) (2 children)

Oui, j’ai vu ce post et ça m’y a fait penser mais je n’avais pas trop le temps alors j’ai juste mis ces deux liens sans aucune explication.

Prouver qu’un utilisateur est bien un humain est un problème compliqué, il y a des solutions mais aucune n’est parfaites. Il y a plein de services pour résoudre les captcha et les autres solutions (numéro de téléphone, scan de papier d’identité…) ont des implications sur la vie privé et peuvent quand même être contournés assez facilement (on peut générer des papiers d’identité par IA maintenant).

Worldcoin c’est la "solution" à base de blockchain des cryptobros à ce problème. En gros pour se créer un compte (un World ID) il faut scanner son iris et on reçoit quelques tokens WLD. Ils présentent ça comme le système ultime de "preuve d’humanité" et prétendent vouloir s’en servir pour créer un revenu universel. Je crois que leur "idée" c’est que si une AGI est développée on aura plus besoin de travailler, il faudra donc un revenu universel mais pour éviter les abus il faut un moyen d’identifier les individus. Bien sur c’est de la grosse merde bien dangereuse. Il y avait une "orb" (leur machine à scanner les iris) à Paris mais ils ont du suspendre leurs services dans plusieurs pays dont la France. Ils prétendent avoir déjà 3 millions d’utilisateurs, principalement dans des pays pauvres parce qu’il y a moins de loi lié à la vie privé et qu’ils est plus facile de motiver les gens en leur faisant miroiter quelques dollars (qui sont en fait donné en token WLD pas forcément simple à revendre).

Je crois que c’est cet article qui m’avais fait découvrir le truc : https://www.citationneeded.news/worldcoin-a-solution-in-search-of/

Avec cette image bien dystopique :

image

[–] [email protected] 1 points 6 months ago

Très intéressant (et flippant) merci !

[–] [email protected] 4 points 6 months ago (3 children)

On acceptera l'idée d'avoir des amis imaginaires et si ça ne suffit pour combler nos besoins sociaux, on passera plus de temps à chercher des connexions dans le monde physique. *tremble à l'idée du développement des androïds*.

load more comments (3 replies)
[–] [email protected] 3 points 6 months ago (4 children)

Grosse coïncidence mais j'ai regardé plusieurs vidéo sur YouTube d'un gars qui commentait les différentes avancées technologiques sur l'IA.

Visiblement l'industrie de la robotique a vu un vrai essor avec la densification des découvertes sur l'IA. Leur secteur stagnait depuis plusieurs années.

Désormais plusieurs craintes ont vraisemblablement vu le jour. Une reproduction d'un scénario à la Skynet semble malgré tout impossible d'après le vidéaste.

A mon avis quelqu'un de mal intentionné arrivera toujours à faire du mal, surtout avec une technologie qu'on ne contrôle pas. Même si un million font attention, un seul suffit pour briser le travail des autres...

[https://www.youtube.com/watch?v=Sq1QZB5baNw](Figure Status Update - OpenAI Speech-to-Speech Reasoning)

Ce robot est capable de parler, réagir, même d'utiliser un ton hésitant lorsque qu'il a terminé une tâche qu'il n'a encore jamais ou très peu exécutée.

Et ce n'est que le début...

On ne parle même plus de bot hébergé sur un serveur Github. On parle littéralement d'un objet pouvant être autonome à court terme.

Avec la popularisation des bornes de recharge rapide pour véhicules électriques, j'imagine qu'un robot pourrait devenir "immortel".

Plus son environnement est difficile à appréhender, plus il se forgera. Un robot qui pense survie, va survivre, à 100%. Sauf s'il tombe à 0% de batterie...

[–] [email protected] 2 points 6 months ago

Intéressant, merci!

La vidéo est intéressante, après comme souvent dans ce genre de démonstration, ils ont dû restreindre au maximum le cadre de la démonstration pour que ça fonctionne.

Sur le ton hésitant, apparemment c'est déjà assez souvent le cas dans les assistants vocaux type Ok Google ou Siri. C'est vrai que c'est perturbant.

Curieux de voir comment ça va évoluer.

load more comments (3 replies)
[–] [email protected] 3 points 6 months ago* (last edited 6 months ago) (1 children)

Tu parles de la "Turing Test". Si une conversation avec une machine, de n'importe quelle durée (même une durée infini), avec n'importe quels gens, ne peut pas révéler que c'est une machine, on doit concéder que c'est une "IA Générale". À çe point, c'est un être sensible.

Mais t'inquiète pas, les GPT sont seulement des algorithmes de autocorrect sur les stéroïdes. Il va falloir faire beaucoup des grands sauts technologiques avant qu'on doit considérer ça.

[–] [email protected] 2 points 6 months ago (1 children)

Oui effectivement, c'est le Turing Test, mais appliqué sur les forums.

Je ne sais pas si ça mettra temps de temps que ça, reproduire la manière de parler d'un utilisateur moyen sur Internet me semble assez simple si le corpus de texte est assez important

[–] [email protected] 2 points 6 months ago (1 children)

A mon avis, si on donne plus des règles au Turing Test, ça perde son valeur comme teste. Il faut que ça soit n'importe quelle conversation, de n'importe quelle durée, avec la même machine. Et il faut que ça soit impossible a déterminer si c'est une machine.

Si un robot est juste très doué a parler sur Lemmy, c'est pas un être sensible. Les GPT sont pas capable d'une conversation infini sans éventuellement révéler leur nature. Peut être une conversation très longue, mais pas infini.

[–] [email protected] 2 points 6 months ago (1 children)

Tu as raison pour le Turing Test, après on peut justement discuter de tests moins forts que le test de Turing.

Si un bot passe le Lemmy test (donc arrive à se faire passer pour un user normal sans qu'on le détecte, indéfiniment), ça changera un grand changement.

[–] [email protected] 2 points 6 months ago* (last edited 6 months ago) (1 children)

Oui t'as raison. Et il faut pas être convaincant pour un durée infini pour passer le Lemmy test, juste pour la durée d'une conversation sur une chaîne de commentaires.

[–] [email protected] 3 points 6 months ago

Ca dépend, sur une petite communauté comme ici, il faudrait être consistant jour après jour vu le peu de membres, les gens se rappelleraient de la personne, et trouveraient ça bizarre s'il changeait de métier/hobby/style du jour au lendemain

[–] [email protected] 3 points 6 months ago (3 children)

C'est une interrogation vraiment intéressante ! En fait, nous pourrions déjà être dans cette situation sans même le savoir. Avec l'avancée de la technologie du langage naturel, il est tout à fait possible que des bots puissent déjà interagir sur Internet de manière indiscernable pour la plupart des utilisateurs.

Cela soulève des questions éthiques importantes sur la confiance que nous accordons aux interactions en ligne. Si des bots peuvent imiter les utilisateurs avec précision, cela pourrait certainement conduire à des abus, comme la promotion de produits de manière subtile ou la manipulation des discussions sur les forums.

Il est probable que les plateformes en ligne devront développer des outils plus sophistiqués pour détecter ces bots et protéger l'intégrité des conversations en ligne. Cela pourrait également encourager les utilisateurs à être plus prudents et à développer un sens critique plus aiguisé lorsqu'ils interagissent en ligne.

Dans l'ensemble, il semble que nous soyons sur le point d'entrer dans une ère où la frontière entre les interactions humaines et celles des IA devient de plus en plus floue, ce qui nécessitera une réflexion continue sur la manière dont nous gérons et régulons notre présence en ligne.

[–] [email protected] 4 points 6 months ago

Là par exemple c'est clair que ça vient d'une IA!

[–] [email protected] 4 points 6 months ago

Bref : quand ChatGPT cessera d'avoir le style de prose insupportable comme ci-dessus sus froge

[–] [email protected] 1 points 6 months ago (2 children)

@inlandempire camus a detecté une IA, pas moi. ​:meow_pensive:​

[–] [email protected] 3 points 6 months ago (1 children)

Si ça ressemble a une copie de philo d'un lycéens, c'est un bot. Les lyceens gardent la philo pour l'école :-)

load more comments (1 replies)
[–] [email protected] 2 points 6 months ago (1 children)

J'ai mis 3 paragraphes à m'en rendre compte. Les mots de liaisons et autres formes de transitions sont trop formels. Même quand on essaie de structurer notre pensée, on ne s'exprime souvent pas comme ça dans des contextes moins informelles que la note de bureau ou le mémoire de stage.
Voyons si je peux faire mieux en corrigeant le style :

[–] [email protected] 1 points 6 months ago (6 children)

C’est une interrogation vraiment intéressante ! En fait, on pourrait déjà être dans cette situation sans même le savoir. Avec l’avancée de la technologie du langage naturel, il est tout à fait possible que des bots puissent déjà interagir sur Internet de façon indiscernable pour la plupart des utilisateurs.
Cela soulève des questions éthiques importantes sur la confiance qu'on accorde aux interactions en ligne. Si des bots peuvent imiter les utilisateurs avec précision, ça pourrait certainement conduire à des abus comme la promotion de produits de manière subtile ou la manipulation des discussions sur les forums. Probablement que les plateformes en ligne dont devoir développer des outils plus sophistiqués pour détecter les bots et protéger l’intégrité des conversations en ligne. Ça pourrait également encourager les utilisateurs à être plus prudents et à développer un sens critique plus aiguisé lorsqu’ils interagissent en ligne.
Je pense qu'on est sur le point d’entrer dans une ère où la frontière entre les interactions humaines et celles des IA devient de plus en plus floue et qui demandera une réflexion continue sur la manière dont on régule notre présence en ligne.

[–] [email protected] 1 points 6 months ago (1 children)

"Cela" c'est déjà un indicateur, la grande majorité des gens utilisent "Ca" à la place

Les phrases sont trop longues aussi

[–] [email protected] 2 points 6 months ago* (last edited 6 months ago)

J'en ai laissé quelque uns volontairement. Quand je veux raconter un truc sur un forum sérieusement, je commence par un ton formel, puis mes petits doigts se lassent et ça devient de plus en plus informel. Je pense que c'est pour ça que le premier paragraphe ne m'avez pas choqué. Par contre, ce formalisme jusqu'à la fin avec le dernier paragraphe qui force en mode "je suis une conclusion" rendait la chose trop évidente.

load more comments (5 replies)
[–] [email protected] 2 points 6 months ago* (last edited 6 months ago) (1 children)

@forumlibre @Camus

Ce sera fin des animateurs et animatrices et des médiateurices de jlai.lu. yaura plus besoin de nous.

Yaura plus besoin de poster. Ni d'intervenir en cas de dispute. Mentalement on y gagne tous. De la rancoeur ? Yen aura pas car la machine aura pris le relais, encaissée toute notre rage et dialoguera en permanance. Ainsi certaine frictions ou fractures qui ont été créé disparaitront complètement.

L'IA se connectera à quelque sites et hop elle fera des post en fonction de leur reception, cela effacera les minorités. (Le vote)

Quant aux discussions sur jlai.lu, elle va les provoquer avec des posts à question comme le tiens et répondre à quelque commentaires pour lancer le sujet sous forme semi-iterrogative.

Et on y participera, entrainé dans un grand mouvement sans s'en rendre compte.

J'y vois la possibilité d'avoir un compagnon de route et de nouer un attachement émotionel comme dans Her(film). On peut très bien etre excité via une chaine de charactère, ou des images porno, ou bien etre joyeux, triste, de mauvaise humeur.

La question sera plutot : quelle est l'intention de l'IA ? Si ces concepteurs n'en ont pas défénis elle prendra celle par défaut, présente sur internet et toutes les ressources ayant nourris son modèle. Donc la culture dominante sur internet et progressivement convertira la population à cette culture en inoculant un ensemble d'idées propre à cette culture dominante. Ne vous leurrez pas, nous sommes déjà dans une culture dominunte et n'y a pas eu besoin d'IA pour le réaliser.

Cela va entrainer une scission d'internet en micro-reseau privé comme gemini, cyberpunk 2077, et donner de plus en plus d'ampleur au non-tech et du face to face. Un mouvement qui pronera le ban des smartphones, réseau sociaux en reaction aux IA.

À terme et de toute façon, l'humain sera remplacé pur une machine. Pourquoi ? C'est notre dernière étape pour devenir une espèce galatique et voyager. L'espace est trop hostile pour que les etresvivants puissent se développer et ce sont de très grande distance.

[–] [email protected] 2 points 6 months ago (1 children)

Merci pour ton message, c'est un autre aspect que j'imaginais, Her est une bonne métaphore.

Dans un monde avec des Her, y a-t-il encore besoins de modérateurs? Chacun-e ne peut-il pas juste se connecter à un ensemble de bots qui le distraient, lui apprennent des choses, postent des memes faits sur mesure pour lui/elle?

Ca semble un peu lointain pour le moment, mais avec le chatbot "affectifs" (que ce soit amoureux ou autre), on y arrive déjà d'une certaine manière, ce n'est sans doute qu'une question de temps

[–] [email protected] 3 points 6 months ago* (last edited 6 months ago)

@Camus @forumlibre

Oui, tout à fait. Ya plus de modo dans Her car effectivement les bots seront capablent de le distraire et l'écouter. Etant sans affect Iels me réagiront pas et vont continuer à dialoguer dans le plus grand calme, sans avoir recours à des mécanismes de defense comme l'évitement, le filtrage. Une présence 24h/24h.

Yaura pas non plus de parti pris. Par exemple, la sanction sera executée sous forme de shadows-ban et réouverture au réseau social. Cad que j'imagine le chatbot peut-etre capable d'isoler une personne sans qu'elle le sache et de la reconnecter au reseau social sur la base de certains critères.

Effectivement apprendre des choses sera la part positive tant que ça reste dans le domaine de la science. En revanche elle pourrait influencer l'opinion et nous convaincre de voter à droite comme le fait CNews. Ça demande pas d'effort.

Oui, on y est déjà sur les bots affectif. La version minimale est de distribuer des +1 pour se sentir mieux ou lancer des encouragement : "on croise les doigts", "vas-y fonces". Voilà, ca suffit comme affectif. Ou coller des -1 et exercer une pression sociale.

Ya pas besoin d'un bot de chat pour ça. On peut deja manipuler l'affect d'une personne avec un mème par exemple et les renforcer dans leur opinion, les polariser.

load more comments
view more: next ›