this post was submitted on 26 Jun 2023
17 points (100.0% liked)

France

2800 readers
1 users here now

Hop, [email protected] c'est finit, merci de migrer sur [email protected]

founded 1 year ago
MODERATORS
top 8 comments
sorted by: hot top controversial new old
[–] Narann 8 points 1 year ago* (last edited 1 year ago) (2 children)

Oui, ce qui rapport du temps de cerveau c’est les crises et l’inquiétude. Les menaces de l’IA sont réelles, mais pas du tout là où les média se focalisent.

La question des biais est centrale, bien plus inquiétante que le fait que l’IA remplace les humains.

EDIT : Je me permet de copier la liste des menaces identifiées, que je trouve intéressantes.

Certains défis d’une importance cruciale devraient être notre priorité :

  • La manipulation du comportement humain par les algorithmes d’IA avec des conséquences sociales potentiellement dévastatrices dans la diffusion de fausses informations, la formation des opinions publiques et les résultats des processus démocratiques.
  • Les biais et discriminations algorithmiques qui non seulement perpétuent mais exacerbent les stéréotypes, les schémas de discrimination, voire l’oppression.
  • Le manque de transparence des modèles et de leur utilisation.
  • La violation de la vie privée et l’utilisation de quantités massives de données de formation sans le consentement ou la compensation de leurs créateurs.
  • L’exploitation des travailleurs qui annotent, forment et corrigent les systèmes d’IA, dont beaucoup se trouvent dans des pays en développement où les salaires sont dérisoires.
  • L’empreinte carbone massive des grands centres de données et des réseaux neuronaux nécessaires à la construction de ces systèmes d’IA.
  • Le manque de véracité des systèmes d’IA générative qui inventent des contenus crédibles (images, textes, audios, vidéos…) sans correspondance avec le monde réel.
  • La fragilité de ces grands modèles qui peuvent se tromper et être trompés.
  • Le déplacement des emplois et des professions.
  • La concentration du pouvoir entre les mains d’un oligopole de ceux qui contrôlent les systèmes d’IA d’aujourd’hui.
[–] V4uban 2 points 1 year ago

Merci pour la liste !

[–] Kuinox 2 points 1 year ago* (last edited 1 year ago) (1 children)

Moi je trouve cette liste pas du tout intéréssante. 80% est vraiment pas dans les priorité, sur le sujet de l'IA.

La manipulation du comportement humain par les algorithmes d’IA avec des conséquences sociales potentiellement dévastatrices dans la diffusion de fausses informations

L’exploitation des travailleurs qui annotent, forment et corrigent les systèmes d’IA, dont beaucoup se trouvent dans des pays en développement où les salaires sont dérisoires.

Pas besoin d'IA pour répéter les fausses informations, comme cette liste l'indique.
T'as des articles très orienté comme celui là, qui donne le salaire "less than $2 per hour":
https://time.com/6247678/openai-chatgpt-kenya-workers/
Comme si c'était de l'exclavagisme.
Le salaire moyen horaire là bas c'est $1.25 par heure. $2 par heure c'est presque le double. Un salaire ca doit se mettre en contexte.

La violation de la vie privée et l’utilisation de quantités massives de données de formation sans le consentement ou la compensation de leurs créateurs.

Ca oriente dès le début le débat au lieu de poser des questions coeurs:
Il y en a d'autres avant:

  • Le contenu que tu poste publiquement sur des plateformes, est il sous ton controle (majorité des EULA/autre disent que non, et aujourd'hui légalement tu donne le droit de la plateforme de faire ce qu'ils veulent).
  • Quels est la différence entre une IA qui apprend, et un humain, où place ton la limite entre les 2?

Le manque de transparence des modèles et de leur utilisation.

Avant GPT4 OpenAI publiait leur papier de recherches, meme si les modèles&code était pas publié, ils étaient plutot transparent sur tout le reste. Donc de quel manque de transparence ils parlent? Et surtout, OpenAI est une des exceptions dans le manque de transparences.

La violation de la vie privée

Hors sujet ici, c'est le problème avec tout services web, pas les IA spécifiquement.

L’empreinte carbone massive des grands centres de données et des réseaux neuronaux nécessaires à la construction de ces systèmes d’IA.

Pareil hors sujet. Des datacenters entier sont construit pour prédire la météo, simuler de la fusion nucléaire, pourquoi ca serait un problème spécifiquement pour l'IA ? Pourquoi empreinte carbonne massive ? Ils ont meme pas les chiffres pour le plus gros modèle (ceux pour train ChatGPT ne sont pas publiques).
Meta pour entrainer le plus gros modèle disponible publiquement ont utilisé 2000 GPU sur 23 jours, en calcul de coin de table, ca fait 331MWh pour entrainer le modèle, donc 99 tonnes de CO2 a 300g/kWh (un francais en emets en moyenne 11tonnes par ans). On est loin de l'empreinte de carbonne massive.

La fragilité de ces grands modèles qui peuvent se tromper et être trompés potentiellement dévastatrices dans la diffusion de fausses information
Le manque de véracité des systèmes d’IA générative qui inventent des contenus crédibles

[–] twinkletwinkletwink 4 points 1 year ago (1 children)

Tu peux aussi arguer qu'éthiquement c'est moyen bof d'aller dans un pays du tiers monde faire faire un taf qu'on sait éprouvant psychologiquement pour 4 x moins que le salaire minimum chez eux.

Et selon l'article que tu cites, les paiements ça a l'air plus nuancé que ce que tu en ressors :

An agent working nine-hour shifts could expect to take home a total of at least $1.32 per hour after tax, rising to as high as $1.44 per hour if they exceeded all their targets. [...] (There is no universal minimum wage in Kenya, but at the time these workers were employed the minimum wage for a receptionist in Nairobi was $1.52 per hour.)

Pour le reste, c'est pas hors sujet parce que c'est applicable a d'autres services webs, c'est tout autant problématique, que ça soit sur la protection de tes données ou l'emprunte carbone. C'est les dérives globales de notre système technologique, autant profiter d'avoir un débat public sur les IAs pour ramener ces sujets sur la table. C'est pas parce que ça fait parti d'un tout que c'est caduque.

[–] Kuinox 1 points 1 year ago* (last edited 1 year ago)

Tu peux aussi arguer qu’éthiquement c’est moyen bof d’aller dans un pays du tiers monde faire faire un taf qu’on sait éprouvant psychologiquement pour 4 x moins que le salaire minimum chez eux.

Ils avaient besoin d'un service une fois, ont fait un appel a une boite de presta et:

The contracts stated that OpenAI would pay an hourly rate of $12.50 to Sama for the work, which was between six and nine times the amount Sama employees on the project were taking home per hour.

Et pourtant, ce n'est encore une fois pas un problème spécifique a l'IA, ni la première fois que cette boite fais les actualités:
https://time.com/6147458/facebook-africa-content-moderation-employee-treatment/

Pour le reste, c’est pas hors sujet parce que c’est applicable a d’autres services webs

Si, l'IA apporte des nouveaux vrai problème, les mélangers avec des problèmes existant dont la société à décidé de ne pas résoudre, c'est tenter de noyer le poisson.
On résoud pas tout les problèmes d'une industrie a la fois, il faut s'attaquer aux problèmes un par un.
Et l'article a été écrit par le "European Lab for Learning & Intelligent Systems"

[–] nicocool84 4 points 1 year ago* (last edited 1 year ago)

Les plus mauvaises langues d'entre nous diront que c'est pour détourner l'attention de ces risques concrets que quelques stars du secteurs aiment alimenter les délires type SkyNet, et que ces délires contribuent à exagérer l'efficacité des ces approaches d'apprentissages statistiques.

[–] twinkletwinkletwink 3 points 1 year ago (1 children)

Ça me fait penser à la dernière vidéo de Rowan Ellis qui parle d'IA créatives et de ce que ça met en danger dans le travail Après le problème c'est toujours un peu le même, c'est pas mediatisé sur les bons axes donc la réflexion du public se fait sur des trucs qui n'ont pas lieu d'être.

[–] V4uban 1 points 1 year ago

Merci pour le partage