Categoria: AI

  • Elon Musk contro Google: una battaglia per il futuro dell’Intelligenza Artificiale

    Elon Musk contro Google: una battaglia per il futuro dell’Intelligenza Artificiale

    Elon Musk ha trovato un nuovo bersaglio per le sue critiche: Google. Il magnate sta diventando sempre più vocale contro il colosso tecnologico, specialmente dopo il lancio di Gemini, il generatore AI di Google, che ha scatenato non poche polemiche.

    Da quando Gemini è stato introdotto, Musk ha condiviso e risposto a oltre 100 post sull’azienda tramite la piattaforma X, esprimendo per lo più opinioni critiche. La maggior parte delle sue accuse si concentra sul fatto che il generatore di immagini di Google sarebbe “troppo politicamente corretto”, generando immagini storicamente inesatte e fornendo risposte bizzarre ad alcune richieste.

    La settimana scorsa, Google ha dovuto sospendere la funzione di generazione di immagini di Gemini a seguito di una forte reazione negativa che ne denunciava il carattere eccessivamente “woke”. Demis Hassabis, CEO di Google DeepMind, ha dichiarato che l’azienda spera di riattivare il generatore di immagini in “un paio di settimane”, ammettendo che alcune funzionalità sono state applicate “troppo alla lettera”.

    Musk, noto critico delle politiche “woke”, ha accusato Google di adottare una programmazione “follemente razzista e anti-civilizzativa” con la sua IA. Non si è limitato a criticare solo Gemini, ma ha esteso il suo attacco ad altri aspetti dell’attività di Google, incluso il motore di ricerca principale dell’azienda e il suo servizio di posta elettronica, Gmail, suggerendo l’arrivo di un prodotto concorrente chiamato “XMail”.

    Le critiche di Musk non si sono fermate ai prodotti di Google, ma hanno incluso anche attacchi personali contro alcuni dipendenti. Ha evidenziato come, secondo alcuni dati, le aziende Big Tech, e Google in particolare, tendano a donare più ai Democratici che ai Repubblicani, suggerendo l’esistenza di un “schema”. Inoltre, ha preso di mira Jack Krawczyk, il responsabile del prodotto Gemini, accusandolo di contribuire alla presunta tendenza razzista e sessista dell’IA di Google.

    Questo confronto va oltre la reputazione personale di Musk. Dopo aver espresso preoccupazioni simili riguardo a ChatGPT di OpenAI, ha fondato la propria azienda di IA, lanciando Grok, un chatbot che aspira ad essere più divertente e meno “politically correct” rispetto ai suoi concorrenti. Musk sta sfruttando la controversia su Gemini per evidenziare i vantaggi di un’IA come Grok, condividendo meme che lodano gli sforzi di xAI come “ricerca massima della verità” in contrapposizione ai rivali.

    Musk promette miglioramenti rapidi per Grok, con l’uscita della versione 1.5 prevista in due settimane, sottolineando l’importanza di un “rigoroso inseguimento della verità, senza riguardo per le critiche”.

    In un contesto più ampio, il 28 febbraio, Axel Springer, la casa madre di Business Insider, si è unita ad altri 31 gruppi media nel presentare una causa da 2,3 miliardi di dollari contro Google in un tribunale olandese, per le perdite subite a causa delle pratiche pubblicitarie dell’azienda.

    Questa battaglia tra Elon Musk e Google non è solo una disputa tra titanici personaggi e aziende del mondo tech, ma segnala una riflessione più ampia sul futuro dell’intelligenza artificiale, sul suo impatto sulla società e sulle implicazioni etiche delle tecnologie emergenti.

  • Google mette in pausa le immagini AI di persone dopo le critiche sull’Etnicità

    Google mette in pausa le immagini AI di persone dopo le critiche sull’Etnicità

    In una mossa che ha scatenato dibattiti e riflessioni nel mondo della tecnologia e oltre, Google ha annunciato la sospensione temporanea della produzione di immagini di persone attraverso il suo nuovo modello di intelligenza artificiale, Gemini, a seguito di critiche relative alla rappresentazione etnica di figure storiche quali i soldati tedeschi della Seconda Guerra Mondiale e i Vichinghi. Queste rappresentazioni, che hanno incluso persone di colore in contesti storici tradizionalmente associati a figure caucasiche, hanno sollevato questioni di accuratezza storica e bias nell’IA.

    La decisione di Google di interrompere la generazione di immagini di persone con Gemini arriva dopo che gli utenti dei social media hanno condiviso esempi di immagini prodotte dallo strumento che ritraevano figure storiche – inclusi papi e padri fondatori degli Stati Uniti – in una varietà di etnie e generi. “Stiamo già lavorando per affrontare i problemi recenti con la funzione di generazione di immagini di Gemini. Mentre facciamo ciò, metteremo in pausa la generazione di immagini di persone e rilasceremo presto una versione migliorata,” ha dichiarato Google in una nota.

    Nonostante Google non abbia fatto riferimento a immagini specifiche nella sua dichiarazione, esempi dei risultati di immagini Gemini erano ampiamente disponibili su X, accompagnati da commenti sulle questioni di accuratezza e bias dell’IA. Un ex dipendente di Google ha evidenziato la difficoltà nel far riconoscere da Google Gemini l’esistenza delle persone bianche.

    Jack Krawczyk, direttore senior del team Gemini di Google, ha ammesso che il generatore di immagini del modello necessitava di aggiustamenti. “Stiamo lavorando per migliorare immediatamente questi tipi di rappresentazioni,” ha detto. Krawczyk ha aggiunto che, sebbene la generazione di immagini IA di Gemini produca un’ampia gamma di persone, cosa generalmente positiva data la sua utenza globale, è chiaro che “qui si è mancato il bersaglio”.

    La copertura del bias nell’IA ha evidenziato numerosi esempi di impatto negativo sulle persone di colore, inclusa un’indagine del Washington Post che ha mostrato esempi di generatori di immagini che mostrano bias contro le persone di colore e sessismo. Andrew Rogoyski, dell’Istituto per l’IA Centrata sulle Persone all’Università di Surrey, ha commentato che mitigare il bias è un “problema difficile nella maggior parte dei campi dell’apprendimento profondo e dell’IA generativa”, ma è probabile che le cose migliorino con il tempo grazie alla ricerca e a diversi approcci per eliminare il bias.

    In conclusione, la pausa di Google nella generazione di immagini di persone con Gemini sottolinea l’importanza di affrontare e correggere il bias nell’intelligenza artificiale, evidenziando la necessità di un’attenzione costante alle questioni di equità e inclusione nelle tecnologie emergenti.

  • Google Bard diventa Gemini: rivoluzione nell’Intelligenza Artificiale di Google

    Google Bard diventa Gemini: rivoluzione nell’Intelligenza Artificiale di Google

    L’evoluzione tecnologica di Google prende una svolta significativa con il suo chatbot AI, noto finora come Google Bard, destinato a subire una trasformazione radicale, assumendo il nuovo nome di Gemini. Questa mossa segna non solo un cambio di denominazione ma anticipa anche l’integrazione di questa intelligenza artificiale in un numero maggiore di applicazioni, promettendo di ampliare ulteriormente le sue capacità e la sua accessibilità.

    La rivelazione emerge da informazioni divulgate da Dylan Roussel, uno sviluppatore che, tramite Engadget, ha condiviso dettagli su un elenco di aggiornamenti previsti per Google Bard. Le modifiche, previste per essere annunciate mercoledì 7 febbraio, vedranno il chatbot AI rinominato in Gemini, nome che attualmente identifica il modello AI di nuova generazione alla base del funzionamento di Bard. Questa decisione di unificare i nomi suggerisce una strategia volta a semplificare e potenziare l’identità del servizio.

    Una delle novità più attese è l’introduzione di un’app dedicata per Android, almeno negli Stati Uniti, che consentirà a Gemini di integrarsi con altre applicazioni Google di uso quotidiano come Gmail, Google Maps e YouTube. Per gli utenti iPhone, Google ha annunciato che sarà possibile accedere a Gemini attraverso l’app Google già esistente per iOS, garantendo così un’esperienza trasversale ai diversi sistemi operativi.

    In aggiunta, le indiscrezioni rivelano l’introduzione di un livello di abbonamento a pagamento, denominato Gemini Advanced. Questa mossa posiziona Google in diretta competizione con OpenAI e ChatGPT, che offrono già servizi di intelligenza artificiale con opzioni gratuite e premium. L’integrazione di Gemini in app come Google Messages, consentendo agli utenti di interagire con l’AI come con qualsiasi altro contatto, sottolinea la volontà di Google di rendere la sua assistenza virtuale sempre più accessibile e integrata nel quotidiano digitale degli utenti.

    Queste innovazioni, se confermate, potrebbero rappresentare uno dei momenti più significativi per i progetti di intelligenza artificiale di Google, segnando un passo importante verso l’integrazione dell’AI in una vasta gamma di servizi e applicazioni. Mentre Google avanza nel campo dell’intelligenza artificiale, anche Apple si appresta a lanciare le sue iniziative generative AI con l’introduzione di iOS 18 prevista per quest’anno, promettendo una competizione sempre più accesa nel settore.

  • Bard integrato in Google Assistant

    Bard integrato in Google Assistant

    Google sta per inaugurare una nuova era nell’ambito dell’intelligenza artificiale con l’imminente integrazione di Bard, il suo chatbot basato su IA, all’interno del Google Assistant, segnando l’inizio di una profonda trasformazione per l’assistente virtuale.

    Questo importante aggiornamento arriva in un momento cruciale, seguito da una significativa riduzione del personale nell’area della Baia e dalla rimozione di 17 funzionalità dall’assistente di Google, indicando una chiara intenzione dell’azienda di rinnovare e potenziare il suo assistente virtuale.

    Nonostante l’annuncio precedente di Google riguardo l’integrazione di Bard in Google Assistant, molti dettagli sul lancio e sulla funzionalità rimangono avvolti nel mistero. Tuttavia, alcune informazioni trapelate offrono un’anticipazione di quello che sarà il rinnovamento AI.

    Si prevede che questa integrazione sfrutti la nuova famiglia di Modelli di Linguaggio di Grandi Dimensioni (LLM) di Google, denominata Gemini, per amplificare le capacità dell’assistente virtuale. Le informazioni disponibili suggeriscono che il Google Assistant potenziato da Bard sarà accessibile attraverso comandi vocali standard come “Hey Google” o doppio tocco dei pulsanti laterali.

    Con l’attivazione, si dice che il Google Assistant abilitato a Bard offra agli utenti la possibilità di impartire comandi vocali, digitare domande tramite tastiera o persino utilizzare immagini per contestualizzare le richieste.

    9to5Google mette in luce le capacità in espansione dell’assistente integrato, rassicurando gli utenti sulla sua continua capacità di supporto hands-free.

    L’attesa cresce tra gli utenti e gli appassionati di tecnologia, che sono in trepidante attesa di un annuncio ufficiale da parte di Google riguardo agli aggiornamenti rivoluzionari che trasformeranno l’esperienza di utilizzo di Google Assistant.

    Questo passo avanti promette di portare l’assistenza virtuale a un livello superiore, preparando gli utenti a una nuova era di interazioni AI più intuitive e versatili.

  • AlphaGeometry: rivoluzione nell’automazione della risoluzione di problemi di geometria

    AlphaGeometry: rivoluzione nell’automazione della risoluzione di problemi di geometria

    Uno studio pubblicato su Nature descrive lo sviluppo di AlphaGeometry, un sistema avanzato in grado di risolvere problemi di geometria a livello olimpico senza dimostrazioni umane. Questo progresso segna un traguardo significativo nel ragionamento automatizzato a livello umano, soprattutto in ambito geometrico, noto per le sue complessità e sfide nella traduzione in formati verificabili dalle macchine.

    Uno studio rivoluzionario pubblicato su Nature da Trieu H. Trinh, Yuhuai Wu, Quoc V. Le, He He e Thang Luong ha introdotto al mondo AlphaGeometry, un teorema prover per la geometria piana euclidea che rappresenta un passo avanti significativo nel campo del ragionamento automatizzato.

    Questo sistema è stato progettato per superare le sfide poste dalla risoluzione di problemi di geometria a livello olimpico, una frontiera notoriamente ardua nel mondo della matematica pre-universitaria.

    La peculiarità di AlphaGeometry risiede nella sua capacità di operare senza dimostrazioni umane, contrariamente agli approcci precedenti di machine learning che richiedevano un costoso processo di traduzione delle prove matematiche in un formato verificabile dalla macchina.

    In particolare, nel campo della geometria, questo ostacolo era ancora più marcato a causa delle sfide uniche di traduzione e della conseguente scarsità di dati di addestramento.

    AlphaGeometry è un sistema neuro-simbolico che utilizza un modello di linguaggio neurale, addestrato da zero su una vasta gamma di dati sintetici, per guidare un motore di deduzione simbolica attraverso punti di diramazione infiniti in problemi complessi. In termini di prestazioni, questo sistema ha raggiunto risultati notevoli.

    Su un set di test di 30 problemi di geometria di livello olimpico più recenti, AlphaGeometry ne ha risolti 25, superando il metodo precedente più efficace che ne risolveva solo dieci e avvicinandosi alle prestazioni di un medagliato d’oro medio dell’Olimpiade Internazionale di Matematica (IMO).

    Uno degli aspetti più impressionanti di AlphaGeometry è la sua capacità di produrre prove leggibili dall’uomo. Ha risolto tutti i problemi di geometria delle IMO del 2000 e del 2015 sotto la valutazione di esperti umani e ha scoperto una versione generalizzata di un teorema IMO tradotto nel 2004. Questo rappresenta non solo un notevole progresso tecnologico, ma anche un potenziale strumento educativo e di ricerca per matematici e studenti di tutto il mondo.

    Lo sviluppo di AlphaGeometry segna un punto di svolta nell’automazione del ragionamento matematico. Mentre le sue applicazioni immediate possono essere più evidenti nel campo della matematica olimpica, le implicazioni di questa ricerca si estendono ben oltre, suggerendo un futuro in cui sistemi avanzati di intelligenza artificiale potranno affrontare e risolvere problemi complessi in una varietà di campi scientifici e accademici.

  • Google rivoluziona ADS con l’Intelligenza artificiale conversazionale

    Google rivoluziona ADS con l’Intelligenza artificiale conversazionale

    Google ha recentemente innovato la piattaforma Google Ads, introducendo esperienze di intelligenza artificiale conversazionale che promettono di rendere la creazione di campagne pubblicitarie più rapida e intuitiva.

    Con l’introduzione di prompt conversazionali, i marketer possono ora sviluppare campagne pubblicitarie in modo più efficiente.

    L’accesso alla beta dell’esperienza conversazionale in Google Ads è attualmente disponibile per gli inserzionisti di lingua inglese negli Stati Uniti e nel Regno Unito.

    Si prevede un lancio globale a tutti gli inserzionisti di lingua inglese nelle prossime settimane.

    Questo nuovo flusso di lavoro, basato su un’esperienza di chat, è pensato per assistere i marketer nella costruzione delle campagne. In teoria, tutto ciò che serve è l’URL di un sito web e l’IA di Google inizierà a creare campagne di ricerca ottimizzate, con contenuti pubblicitari pertinenti, inclusi elementi creativi e parole chiave.

    La pubblicità diventa più visuale e, come afferma Shashi Thakur, Vicepresidente e Direttore Generale di Google Ads, “abbiamo sentito dagli inserzionisti che può essere difficile creare immagini coinvolgenti che migliorino le prestazioni.

    Per questo abbiamo progettato l’esperienza conversazionale per suggerire immagini adattate alla tua campagna usando l’intelligenza artificiale generativa e le immagini dalla tua pagina di destinazione”. Questa capacità sarà aggiunta nei prossimi mesi. Gli inserzionisti avranno la possibilità di approvare tutti gli asset, incluse le immagini, prima che la campagna venga pubblicata.

    Tutte le immagini create con l’IA generativa in Google Ads, compresa l’esperienza conversazionale, saranno identificate come tali. Google utilizzerà SynthID per apporre una filigrana invisibile su queste immagini, che includeranno anche metadati standard aperti per indicare che sono state generate da IA.

    Gli inserzionisti manterranno la capacità di approvare tutto prima del lancio delle campagne. Durante i test, Google ha osservato che questo aiuta i marketer a costruire campagne di ricerca di qualità superiore con meno sforzo.

    Tom Foster, manager di ricerca a pagamento presso Page1, ha trovato l’esperienza conversazionale “molto facile da usare”, affermando che ha contribuito a creare annunci pubblicitari di alta qualità, migliorando ulteriormente le prestazioni delle sue campagne.

    Google ha implementato l’intelligenza artificiale nelle sue suite di strumenti da qualche tempo. Ad ottobre, ha introdotto la creazione AI per Demand Gen Ads e creatività pubblicitarie, continuando a porsi come leader nell’innovazione tecnologica nel campo della pubblicità online.

  • Samsung Galaxy S24 introduce la funzione “Circle to Search” di Google per ricerche istantanee sullo schermo

    Samsung Galaxy S24 introduce la funzione “Circle to Search” di Google per ricerche istantanee sullo schermo

    “Circle to Search” e gli aggiornamenti di Google Lens rappresentano un passo avanti significativo nell’interazione tra l’uomo e la tecnologia, offrendo un’esperienza utente sempre più fluida e intuitiva.

    Samsung e Google stanno facendo un passo avanti significativo con l’introduzione della nuova funzione “Circle to Search” sul Samsung Galaxy S24.

    Questa caratteristica innovativa, annunciata recentemente in una conferenza stampa da Google, permetterà agli utenti di effettuare ricerche su Google in modo più intuitivo e potente, direttamente dallo schermo del proprio smartphone.

    La funzione “Circle to Search” consente di attivare Google in qualsiasi app, selezionare con un cerchio qualsiasi testo o oggetto sullo schermo e, grazie all’intelligenza artificiale, ricevere risultati istantanei.

    Questa versione avanzata della ricerca visiva sarà disponibile a partire dal 31 gennaio sui nuovi modelli Pixel 8, Pixel 8 Pro e sulla linea Samsung Galaxy S24.

    L’innovazione di “Circle to Search” sta nella sua semplicità d’uso: ad esempio, se si visualizza un TikTok che mostra dei corn dogs particolari, sarà sufficiente portare in primo piano l’app di Google e selezionare il cibo con il dito.

    L’intelligenza artificiale di Google fornirà informazioni dettagliate sui corn dogs coreani, spiegando anche la loro rilevanza culturale nel contesto gastronomico attuale.

    La potenza di questa funzione risiede nella capacità di ricercare qualsiasi oggetto o testo visualizzato sullo schermo, senza la necessità di passare tra diverse app.

    L’annuncio di questa funzionalità arriva in concomitanza con quello di Samsung, che ha confermato l’introduzione di “Circle to Search” nella sua nuova linea Galaxy S24.

    Al momento, non sono stati annunciati altri telefoni con questa versione più avanzata della ricerca Google integrata nelle app.

    Questa mossa di Google segue la crescente tendenza nell’uso dell’intelligenza artificiale, soprattutto dopo il successo di ChatGPT nel 2022, che ha rivoluzionato il concetto di ricerca online.

    ChatGPT, a differenza della ricerca Google tradizionale, offriva risposte uniche e filtrate, spingendo sia Google che Microsoft a introdurre chatbot basati su AI per rimanere competitivi.

    Da allora, gli investimenti di Microsoft nell’IA hanno proiettato l’azienda al primo posto tra le più preziose al mondo, superando Apple. Google, a sua volta, sta integrando l’intelligenza artificiale in molti dei suoi prodotti, dalla ricerca stessa con l’esperienza generativa, fino all’app della fotocamera sui suoi dispositivi Pixel.

    Considerando che l’IA generativa potrebbe generare fino a 4,4 trilioni di dollari annuali, secondo McKinsey, le aziende sono in corsa per mantenere la loro dominanza sul mercato.

    In aggiunta a “Circle to Search”, Google ha annunciato che anche la funzione di ricerca multipla in Google Lens riceverà un aggiornamento potenziato dall’IA. In passato, Google Lens poteva identificare un oggetto, come un abito, permettendo poi di effettuare ricerche su varianti di colore. Ora, queste corrispondenze visive offriranno intuizioni basate sull’IA, consentendo di porre domande più sfumate. Un esempio citato da Google è la possibilità di identificare un gioco da tavolo senza scatola trovato in un mercatino e di chiedere il nome del gioco e come si gioca.

  • L’Impatto rivoluzionario dell’Intelligenza Artificiale nella scienza: Lila Ibrahim di Google DeepMind

    L’Impatto rivoluzionario dell’Intelligenza Artificiale nella scienza: Lila Ibrahim di Google DeepMind

    Nel contesto affascinante del Forum Economico Mondiale di Davos, Lila Ibrahim, Chief Operating Officer di Google DeepMind, ha condiviso con Alison Snyder di Axios una prospettiva stimolante sul ruolo dell’intelligenza artificiale (IA) nella scienza.

    Secondo Ibrahim, l’IA sta offrendo una “comprensione completamente diversa di ciò che esiste” e sta rivoluzionando campi come la scienza dei materiali e la biologia.

    Perché è importante

    Nel 2023, Google DeepMind ha fatto un passo avanti significativo, svelando il suo strumento di IA, GNoME, capace di scoprire 2.2 milioni di potenziali nuovi materiali.

    Questa scoperta non è solo un traguardo scientifico, ma apre le porte a innovazioni rivoluzionarie in settori come i semiconduttori, le batterie e i pannelli solari.

    La società ha anche accelerato il coding informatico e sviluppato AlphaFold, un altro strumento di IA che ha risolto un problema biologico vecchio di decenni: comprendere e prevedere la forma esatta delle proteine, essenziali per il funzionamento di tutti gli esseri viventi.

    Le parole di Ibrahim

    Ibrahim si dice ora “più ottimista” riguardo all’IA rispetto sia all’anno scorso, quando l’arrivo di ChatGPT ha dominato il meeting annuale del Forum Economico Mondiale, sia al 2018, quando si è unita a DeepMind.

    Nel 2018, “AlphaFold era solo un’idea non ancora realizzata”, ricorda Ibrahim. Oggi, invece, sono note 200 milioni di proteine.

    L’ultimo anno ha visto rapidi progressi nella collaborazione tra sviluppatori di IA, governo e gestione dei rischi associati alla tecnologia.

    Ibrahim ritiene che sarà più facile insegnare ai giovani utenti di IA un quadro etico per la tecnologia rispetto alle generazioni più anziane, che si sono digitalizzate attraverso internet e i social media.

    Cosa ci aspetta nel futuro

    Secondo Ibrahim, è fondamentale “lavorare con esperti nei loro settori” per pensare a come trasformare i rispettivi ambiti. La ricetta di Ibrahim per aumentare la fiducia nell’IA include il raggiungimento di coloro che sono stati lasciati indietro dai precedenti progressi tecnici ed economici.

    In conclusione, l’approccio di Google DeepMind all’IA non si limita alla pura innovazione tecnologica, ma abbraccia una visione più ampia e inclusiva, puntando a un futuro in cui l’IA è un catalizzatore di progresso accessibile e responsabile per tutti.

  • L’Intelligenza artificiale di Google in ospedale è più umana dei medici?

    L’Intelligenza artificiale di Google in ospedale è più umana dei medici?

    In un recente studio, i ricercatori di Google affermano di aver sviluppato un’intelligenza artificiale (AI) che supera in accuratezza ed empatia i medici reali, sollevando interrogativi sulla potenziale umanità dell’AI nel settore sanitario.

    Sviluppo dell’AI di Google

    L’azienda ha creato un modello di linguaggio avanzato chiamato AMIE (Articulate Medical Intelligence Explorer), alimentato da dati reali di cartelle cliniche e trascrizioni di appuntamenti medici. Questo sistema è stato utilizzato per condurre colloqui medici, come riportato in uno studio del 11 gennaio sul sito di preprint arXiv.

    Metodologia dello studio

    Nello studio, venti attori che simulavano di essere pazienti hanno partecipato a consultazioni mediche online basate su testo, senza sapere se stessero interagendo con un AI o con medici in carne ed ossa. Sorprendentemente, l’AI ha superato i medici reali in 24 delle 26 misure conversazionali prese in considerazione, mostrando maggiore empatia, cortesia e capacità di mettere a proprio agio i pazienti. Inoltre, l’AI ha eguagliato o superato i medici di base in tutte e sei le categorie diagnostiche esaminate.

    Cosa si legge nello studio di AMIE

    “Al centro della medicina c’è il dialogo medico-paziente, in cui un’abile anamnesi apre la strada a diagnosi accurate, gestione efficace e fiducia duratura.

    I sistemi di intelligenza artificiale (AI) capaci di dialogo diagnostico potrebbero aumentare l’accessibilità, la coerenza e la qualità delle cure.

    Tuttavia, avvicinare le competenze dei medici è una grande sfida eccezionale.

    Qui presentiamo AMIE (Articulate Medical Intelligence Explorer), un sistema di intelligenza artificiale basato su Large Language Model (LLM) ottimizzato per il dialogo diagnostico.

    AMIE utilizza un nuovo ambiente simulato basato sul gioco autonomo con meccanismi di feedback automatizzati per adattare l’apprendimento a diverse condizioni, specialità e contesti di malattie.

    Abbiamo progettato un quadro per la valutazione degli assi di prestazione clinicamente significativi, tra cui l’anamnesi, l’accuratezza diagnostica, il ragionamento gestionale, le capacità di comunicazione e l’empatia.

    Abbiamo confrontato le prestazioni dell’AMIE con quelle dei medici di base (PCP) in uno studio crossover randomizzato in doppio cieco di consultazioni basate su testo con attori pazienti validati nello stile di un esame clinico strutturato oggettivo (OSCE).

    Lo studio ha incluso 149 scenari di casi provenienti da fornitori clinici in Canada, Regno Unito e India, 20 PCP per il confronto con AMIE e valutazioni da parte di medici specialisti e attori dei pazienti.

    L’AMIE ha dimostrato una maggiore accuratezza diagnostica e prestazioni superiori su 28 assi su 32 secondo i medici specialisti e 24 assi su 26 secondo i pazienti.

    La nostra ricerca presenta diversi limiti e deve essere interpretata con la dovuta cautela. I medici erano limitati a chat di testo sincrone non familiari che consentono interazioni LLM-paziente su larga scala ma non sono rappresentative della pratica clinica abituale.

    Sebbene siano necessarie ulteriori ricerche prima che l’AMIE possa essere tradotto in contesti del mondo reale, i risultati rappresentano una pietra miliare verso l’IA diagnostica conversazionale.”

    Precauzioni e limitazioni

    I ricercatori hanno sottolineato che la tecnologia è ancora sperimentale e non è stata testata su pazienti reali. Inoltre, lo studio non è ancora stato sottoposto a revisione paritaria.

    Dichiarazioni e interpretazioni

    Alan Karthikesalingam, MD, PhD, scienziato della ricerca clinica presso Google Health e co-autore dello studio, ha dichiarato a Nature in un articolo del 12 gennaio:

    “Vogliamo che i risultati siano interpretati con cautela e umiltà. Questo non significa in alcun modo che un modello di linguaggio sia migliore dei medici nel raccogliere la storia clinica”.

    Egli ha osservato che i medici di base coinvolti nello studio probabilmente non erano abituati a interagire con i pazienti tramite una chat testuale, il che avrebbe potuto influire sulle loro prestazioni.

    Ha inoltre notato che l’AI potrebbe sembrare più premurosa rispetto agli esseri umani perché, a differenza di questi ultimi, non si stanca.

    Potenziale futuro dell’AI in sanità

    Nonostante le avvertenze, i ricercatori sottolineano che lo strumento dimostra un “potenziale significativo” per trasformare la raccolta di storie cliniche e le conversazioni diagnostiche nel settore sanitario.

error: Content is protected !!