“Grazie alla diffusione di immagini e contenuti digitali, nonché all’avvento del Deep Learning, l’IA ha raggiunto prestazioni paragonabili a quelle umane nel riconoscimento di contenuto – spiega all’ANSA Carlo Negri, ricercatore senior dell’Osservatorio Artificial Intelligence del Politecnico di Milano – Le ultime novità ci raccontano di strumenti per generare immagini e video ad alto realismo, grazie alle sorprendenti capacità dei nuovi modelli generativi. Questo traguardo porta con sé questioni legali ed etiche molto importanti”. Sora è l’app che ha suscitato maggiore clamore, ma la concorrenza non manca: PixVerse, invideo AI, Stable Video sono solo alcuni dei software che vogliono rendere la narrazione multimediale fortemente impregnata di intelligenza artificiale.
Ma ci sono anche Midjourney, DALL-E 3 di OpenAI, DreamStudio di Stability AI o Image Creator di Microsoft. In campo anche Meta e Google, i cui sistemi di IA per immagini hanno però dato problemi sulla rappresentazioni razziali. E proprio Google da metà maggio estenderà a tutti la possibilità di modificare le immagini con l’IA con la semplicità del proprio smartphone e l’app Foto. L’obiettivo delle grandi aziende tecnologiche è facilitare sempre più utenti a sperimentare le potenzialità dell’IAI, con l’obiettivo di fidelizzarli. Ma la democratizzazione di questa tecnologia aumenta delle criticità, dal diritto d’autore ai falsi. Non a caso diversi esperti hanno sottolineato alla rete americana Cnbc che, proprio in vista delle elezioni che si terranno nel 2024 in diverse parti del mondo, i big del digitale dovranno alzare l’attenzione e introdurre strumenti certi con cui distinguere il vero dal falso.
Sul fronte copyright delle immagini, invece, la situazione è a macchia di leopardo. Secondo indiscrezioni, Apple, Meta, Google e Amazon avrebbero stretto un accordo con Shuttershack, la piattaforma per l’acquisto di foto e filmati online, per ottenere in licenza milioni di immagini di proprietà. Mentre, sempre secondo rumors, OpenAI avrebbe utilizzato le trascrizioni automatiche dei video di YouTube per addestrare Sora. “I legislatori europei si sono già in parte mossi inserendo nell’AI Act alcune disposizioni chiare circa l’utilizzo dell’Intelligenza artificiale generativa – conclude Carlo Negri – In particolare, non solo si impone ai fornitori di adempiere ad obblighi di trasparenza informando l’utente che si sta interagendo con un sistema di IA, ma anche di progettare e sviluppare il modello di base in modo da assicurare opportune garanzie contro la generazione di contenuti che violano il diritto dell’Unione, in linea con lo stato dell’arte generalmente riconosciuto e fatti salvi i diritti fondamentali, compresa la libertà di espressione”.
Riproduzione riservata © Copyright ANSA