this post was submitted on 07 Jun 2023
2 points (100.0% liked)
Etica Digitale (Feddit)
888 readers
2 users here now
Etica Digitale è un gruppo volontario indipendente attivismo con l’intento di riportare la persona e i diritti al centro del dibattito tecnologico.
Se fatto nel rispetto del regolamento, ogni contributo è benvenuto!
Regolamento:
- Rispetto e cordialità sempre
- Niente troll
- Niente pubblicità
- Evitare di andare fuori tema nelle discussioni
- Evitare discorsi con sfondi politici o propagandistici che non siano strettamente correlati agli argomenti trattati
- No attività illegali
- Non importunare le e gli utenti in privato.
Alcune informazioni utili:
🔹 Sito: eticadigitale.org
📧 Email: [email protected]
🦣 Mastodon
📣 Telegram (canale)
👥 Telegram (gruppo)
founded 2 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Err... sbaglio anch'io?
Intendiamoci: che i dati usati per il machine learning siano abbiano un bias verso bianco/etero/etc. è un fatto noto (e a quanto gravemente discriminatorio? personalmente sarei contento se la "IA" non fosse capace di identificarmi), ed è noto (e, questo sì, indiscutibilmente grave) che persone LGBTetc siano ingiustamente discriminate... ora però mettere assieme le due cose mi pare un po' forzato...
Come si può pretendere che una "AI" sia in grado di classificare le preferenze sessuali in base all'aspetto di una persona? Capisco che potrebbe riconoscere la stereotipica checca (come posso riconoscerla io), ma... non è che le persone LGBTetc siano in generale diverse dalle altre.
E poi... anche fosse possibile/sensato, per quale fine non discriminatorio potrebbe essere utile una "AI" del genere?