this post was submitted on 07 Jun 2023
2 points (100.0% liked)

Etica Digitale (Feddit)

888 readers
2 users here now

Etica Digitale è un gruppo volontario indipendente attivismo con l’intento di riportare la persona e i diritti al centro del dibattito tecnologico.

Se fatto nel rispetto del regolamento, ogni contributo è benvenuto!

Regolamento:

  1. Rispetto e cordialità sempre
  2. Niente troll
  3. Niente pubblicità
  4. Evitare di andare fuori tema nelle discussioni
  5. Evitare discorsi con sfondi politici o propagandistici che non siano strettamente correlati agli argomenti trattati
  6. No attività illegali
  7. Non importunare le e gli utenti in privato.

Alcune informazioni utili:
🔹 Sito: eticadigitale.org
📧 Email: [email protected]
🦣 Mastodon
📣 Telegram (canale)
👥 Telegram (gruppo)

founded 2 years ago
MODERATORS
 

Con una breve occhiata a un singolo volto, i nuovi software di riconoscimento facciale sono ora in grado di classificare il genere di molti uomini e donne con notevole precisione.

Ma se quel volto appartiene a una persona transgender, questi sistemi sbagliano più di un terzo delle volte, secondo una nuova ricerca dell'Università del Colorado Boulder.

"Abbiamo scoperto che i servizi di analisi facciale hanno ottenuto risultati sempre peggiori con gli individui transgender e non sono stati in grado di classificare i generi non binari", ha dichiarato l'autore principale Morgan Klaus Scheuerman, dottorando presso il dipartimento di Scienze dell'Informazione. "Mentre ci sono molti tipi diversi di persone là fuori, questi sistemi hanno una visione estremamente limitata dell'aspetto del genere".*

top 3 comments
sorted by: hot top controversial new old
[–] [email protected] 2 points 1 year ago

Err... sbaglio anch'io?

Intendiamoci: che i dati usati per il machine learning siano abbiano un bias verso bianco/etero/etc. è un fatto noto (e a quanto gravemente discriminatorio? personalmente sarei contento se la "IA" non fosse capace di identificarmi), ed è noto (e, questo sì, indiscutibilmente grave) che persone LGBTetc siano ingiustamente discriminate... ora però mettere assieme le due cose mi pare un po' forzato...

Come si può pretendere che una "AI" sia in grado di classificare le preferenze sessuali in base all'aspetto di una persona? Capisco che potrebbe riconoscere la stereotipica checca (come posso riconoscerla io), ma... non è che le persone LGBTetc siano in generale diverse dalle altre.

E poi... anche fosse possibile/sensato, per quale fine non discriminatorio potrebbe essere utile una "AI" del genere?

[–] [email protected] 0 points 1 year ago (1 children)

Non so se prendersela con il software sia la cosa giusta onestamente, spero che questo lavoro sia uno spunto per il dottorando per migliorare le performance della rete neurale anziché fare polemica del tipo "gli algoritmi sono transfobici!1!"

[–] [email protected] 1 points 1 year ago

@QuantumMischief @Mariolink "Gli algoritmi sono transfobici" sarebbe una sciocchezza...
"Gli algoritmi sono conservatori" a me sembra calzante.
Assistiamo in continuazione a scivoloni su algoritmi addestrati con dati troppo parziali; con dati zeppi di idee vetuste...
Ma se non sono gli algoritmi ad essere transfobici, è l'idea di poter distinguere il genere (binario uomo/donna?) di una persona dall'immagine del suo viso ad essere ideologica, basata su un idea di genere esteriore e non interiore.