Dopo le critiche, nei giorni
scorsi, all’IA di Microsoft Designer che ha permesso di creare
false immagini di nudo di Taylor Swift, il gigante della
tecnologia è al centro di un nuovo caso. A sollevarlo è Shane
Jones, ingegnere di intelligenza artificiale di Microsoft, che
sostiene di aver scoperto all’inizio di dicembre una
vulnerabilità nel modello di generazione di immagini Dall-E 3 di
OpenAI, azienda di cui il colosso americano è principale
investitore, usato anche dal chatbot Copilot. Secondo Jones, gli
utenti di strumenti come Bing Image Creator possono usare Dall-E
3 per aggirare le protezioni dell’IA e creare contenuti dannosi.
Dopo aver scoperto la falla, Jones avrebbe segnalato la
questione alla direzione, senza ottenere risposta. A quel punto,
ha deciso di pubblicare un post su LinkedIn in cui spiega cosa è
successo. Solo in quel momento Microsoft l’ha contattato,
chiedendo di rimuovere il post. Come riporta Engadget, a causa
delle falle scoperte, Dall-E 3 potrebbe rappresentare una
minaccia per la sicurezza ed è per questo che Jones ne chiede la
rimozione da un accesso pubblico. Un portavoce di Microsoft ha
scritto a Engadget: “Ci impegniamo ad affrontare tutte le
preoccupazioni dei dipendenti in conformità con le politiche
aziendali e apprezziamo lo sforzo nello studio e nel testare la
nostra ultima tecnologia per migliorarne ulteriormente la
sicurezza. Quando si tratta di preoccupazioni che potrebbero
avere un potenziale impatto sui servizi o partner, abbiamo
stabilito solidi canali di segnalazione interni. Gli stessi che
abbiamo consigliato al dipendente, in modo da poter convalidare
e testare adeguatamente le sue preoccupazioni, prima di
condividerle pubblicamente”. Microsoft ha aggiunto che il suo
Office of Responsible AI ha creato uno strumento di reporting
proprio per consentire ai dipendenti di segnalare i timori sui
modelli di intelligenza artificiale.
Riproduzione riservata © Copyright ANSA