this post was submitted on 17 Jun 2024
22 points (95.8% liked)

France

2221 readers
61 users here now

La France et les Français

Communautés principales

Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org

🔍 Recherche

FAQ, guides et ressources :

Actualité internationale

Loisirs:

Vie Pratique:

Société:

Villes/Régions

Pays:

Humour:

Fedivers:

Règles

  1. Multi-lingual community: posts in other language than French are allowed. 🚀

  2. Tous les francophones sont bienvenus. 🐌

  3. Remember the human : pas d’insultes, pas d’agressivité, pas de harcèlement entre utilisateurs. 🤖

  4. Xénophobie, racisme et autre forme de discrimination sont interdits.🌈

  5. Pas de doublon. Pas de spam. Évitez les paywalls autant que possible.☔

  6. Utilisez la fonction "Report" pour signaler le contenu contrevenant aux règles.🏴

  7. Le contenu doit être en rapport avec la France ou la population française.🇨🇵


Communauté de secours:

founded 2 years ago
MODERATORS
 

Pour référence : https://etudiant.lefigaro.fr/article/bac-philo-2023-qui-de-raphael-enthoven-ou-chatgpt-redige-la-meilleure-copie_a694c010-0a09-11ee-bd34-f2c2eadd1748/

(désolé pour le sponsor de la vidéo qui apparaît dans l'aperçu généré par lemmy)

you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 16 points 6 months ago* (last edited 6 months ago) (4 children)

Je recycle mon commentaire sur l'autre RS :-)

C'est relou parce qu'il y a de vraies questions philosophiques pratiques, expérimentales, à avoir sur ces technos et qu'entrer un peu dans le sujet est extrêmement facile: au contraire des philosophes académiques, les chercheurs en IA publient leurs découvertes et interrogation gratuitement, et en dissertent sur des plateformes publiques (blogs, twitter)

Les LLMs sont excellents à identifier les motifs. Et ce qui est surprenant c'est que ça reste vrai à différents niveaux d'abstraction, ce qu'on pensait encore il y a 5 ans être le domaine réservé de l'intelligence "véritable".

Par exemple, au premier niveau, si vous commencez une phrase par "L'URS" le modèle va facilement deviner que la lettre suivante est "S", ça on sait faire depuis 70 ans.

Au niveau suivant vous mettez "Chine, État-Unis, Inde et" le modèle va probablement sortir un nom de pays: première abstraction, on catégorise, on trouve des points communs, on a une représentation interne de ces notions.

Au niveau encore suivant, vous mettez "La pelle est au trou ce que le four est" il vous répond "au gateau". On a identifié la notion de fonction et compris que l'on crée des couples outil-conséquence.

Et déjà à ce niveau là, même si on n'était pas allé plus loin, on se rend compte qu'on a recréé algorithmiquement des capacités d'abstraction, ce qui a déjà un intérêt philosophique important. Et le plus étrange c'est que cette capacité émerge naturellement de la simple mission "prédis le mot suivant".

Bien sur ce qui est abasourdissant chez les LLMs récents c'est que leurs niveaux d'abstractions vont encore plus haut. Ils savent générer des blagues inédites, des associations poétiques ou des images rhétoriques fortes parce qu'ils arrivent à comprendre le schéma et la charge tant sémantique qu’émotionnelle des mots.

Là où il y a une question philosophique importante qui divise les chercheurs (justement avec Le Cun d'un coté et les gens qui font du LLM toujours plus gros de l'autre) c'est la question du raisonnement. Ces modèles sont, a priori, capables d'appliquer un raisonnement à des problèmes. Ça indiquerait que le raisonnement n'est "que" de la reconnaissance de motifs à un niveau d'abstraction élevé: la cause précède la conséquence, on réutilise la conséquence comme une cause pour l'étape suivante, etc.

Le Cun lui argue qu'il manque quelque chose, mais au contraire d'Enthoven, le prouve: il y a des problèmes simples que les LLMs ont du mal à résoudre, son exemple classique est: "il y a sept roues dentées connectées les unes aux autres en cercle, je tourne la première dans le sens des aiguilles d'une montre, dans quel sens tourne la dernière?" la réponse correcte est que l'on ne peut pas faire tourner un assemblage circulaire de roues dentées en nombre impair et c'est évident quand on le dessine, mais les LLM n'ayant aucun sens visuel, galèrent avec ce genre de problèmes.

Notez que Le Cun lui ne dit pas qu'on n'y arrivera pas même dans 1000 ans, mais que l'architecture actuelle des LLMs (plus précisément les transformers decoder-only, dont fait partie l'architecture Generative pre-trained transformer (GPT) ) atteint sur ces choses un plateau et doit être augmentée d'autre chose, soit de multimodalité (compréhension des images, sons, videos, etc.) soit, ce que lui propose, d'une architecture construisant explicitement un modèle mental interne des concepts manipulés dans la conversation (c'est son architecture JEPA)

Mais voila, comme le fait remarque Mr Phi, on arrive dans un domaine avec lequel les philosophes académiques (et surtout de plateau) sont mal à l'aise: celui où leurs affirmations deviennent testables et où on se doit de réajuster ses opinions en fonction du résultat des expériences.

Ces derniers mois, j'ai lu beaucoup de philosophie rien qu'en lisant des publis de deep learning. Si vous vous posez des questions (sérieuses) sur la nature de l'intelligence, c'est là que ça se passe.

[–] [email protected] 4 points 6 months ago

Trop bien, merci pour ton commentaire très riche :)

[–] [email protected] 2 points 6 months ago* (last edited 6 months ago) (1 children)

"prédis le mot suivant" avec tirage au sort des mots suivant potentiels pondérés par leurs statistiques. Ce résultat probabiliste est essentiel pour donner l'impression de créativité des LLMs modernes.

[–] [email protected] 2 points 6 months ago

Oui, on parle de température pour régler le niveau d'aléatoire dans le choix des mots suivants. On peut la mettre à zéro quand on ne recherche pas la créativité, il est généralement considéré que ça rend les réponses plus exactes mais ce n'est pas vrai pour tous les modèles ni tous les tests.

[–] [email protected] 2 points 6 months ago (1 children)

Sur le sujet de ce qu'est capable de faire un LLM "juste en donnant des prédictions pour le mot suivant", je te recommande une autre vidéo récente de Mr Phi sur le fait de faire jouer ChatGPT aux échecs. C'est assez impressionnant, et un poil flippant d'après moi.

Si tu veux creuser le sujet (et notamment sur ce que dit Yann Le Cun, je te recommande cette vidéo si tu comprends l'anglais

[–] [email protected] 2 points 6 months ago

On m'en a parlé aussi de cette autre vidéo de MrPhi, il faudra que je regarde je suppose. Pour info je bosse dans le domaine (j'ai fait un AMA y a pas longtemps sur le sujet) mon message était déjà assez long mais sur les considérations philosophiques sur le sujet je pourrais écrire 30 pages :-)

[–] NeuralNerd 1 points 6 months ago (1 children)

Le Cun lui argue qu’il manque quelque chose, mais au contraire d’Enthoven, le prouve

Sauf qu'il se plante aussi parfois là dessus. Monsieur Phi l'avait montré dans une vidéo : https://youtu.be/_XJsAQsT0Bo?si=bhdZB-WiESNEw-IE&t=1921

[–] [email protected] 1 points 6 months ago (1 children)

Oui, Le Cun a beaucoup sous-estimé les LLMs de type GPT dans le passé. Et il est en bonne compagnie là dessus hein, ils ont surpris tout le monde par leurs capacités émergentes. C'est pour ça que je trouve que la thèse de Le Cun bien que défendable ne devrait pas l'être avec un ton si péremptoire.

Même l'histoire des engrenages, bien prompté, GPT4 y arrive, mais c'est bien plus difficile pour lui que des tâches normalement plus ardues. Il met le doigt sur une faiblesse intéressante, que lui argue bloquante, qui ne l'est peut être pas, mais il est très raisonnable de penser que d'explorer cette faiblesse et de la compenser pourrait booster les compétences de ces modèles.

Et il est intéressant de comprendre également pourquoi le raisonnement de Le Cun est faux dans la vidéo présentée: il a peut-être raison sur le fait que probablement aucun texte ne dit explicitement qu'un objet posé sur une table suit la table, mais beaucoup de textes le supposent implicitement et GPT-4 arrive à apprendre ces informations implicites.

[–] NeuralNerd 1 points 6 months ago (1 children)

beaucoup de textes le supposent implicitement et GPT-4 arrive à apprendre ces informations implicites.

Oui, et on peut facilement imaginer qu'en entraînant des modèles similaires en plus sur des vidéos ils pourraient acquérir un bon modèle du monde physique.

[–] [email protected] 1 points 6 months ago

Ouaip.

Le pari de LeCun est de faire une architecture où cet apprentissage serait explicite