Episode Transcript
[00:00:00] Speaker A: spin off il podcast di inoltre
[00:00:09] Speaker B: Il 3 marzo scorso, Alex Karp, il CEO di Palantir Technologies, ha tenuto un discorso all'American Dynamics Summit di Anderson Horowitz. Palantir è una società di analisi dei dati e sorveglianza, fondata nel 2003 da Peter Thiel, cofondatore di PayPal e tra gli investitori più influenti della Silicon Valley. Il nome è tratto dai romanzi di Tolkien. I palantiri sono le pietre vigenti usate da Sauron per sorvegliare e corrompere il mondo. Non una compagnia neutra, dunque. Sia Thiel che Karp hanno un background di studi filosofici e sono uniti da una profonda diffidenza verso la democrazia liberale. Thiel ha scritto esplicitamente che la libertà e la democrazia sono incompatibili. Palantir è il loro strumento per incidere sulla realtà, non semplicemente vendere tecnologia, ma fornire agli stati, che ritengono degni, la capacità di vedere tutto, tracciare tutti, decidere tutto.
La visione è quella di un potere sovrano potenziato dall'intelligenza artificiale, in cui chi controlla i dati controlla il potere. Durante questa conferenza, davanti a una platea di circa 600 delegati delle maggiori compagnie tecnologiche statunitensi, CARP ha detto, se non pensate che questo porterà alla nazionalizzazione della nostra tecnologia, siete dei ritardati.
Ma cosa intende Karp esattamente per nazionalizzazione? E come si collega questo discorso al caso di Antropic, la compagnia di Dario Amodei designata dall'amministrazione Trump Supply Chain Risk per aver imposto al Pentagono due linee rosse sull'uso di Cloud, l'intelligenza artificiale utilizzata per analisi, supporto decisionale e gestione dei dati classificati? 1.
No alla sorveglianza di massa dei cittadini.
Due, no all'uso dell'AI in contesti di guerra senza supervisione umana.
Benvenuti al Podcast in Oltre. Oggi abbiamo con noi Andrea Lenazzoni, giurista, autore di Saggi, scrive sul giornale Il Foglio, e Samuele Mottino, professore ordinario di International Business presso la School of Economics dell'Università di Utrecht.
Buonasera, Samuele. Buonasera, Andrea.
[00:02:17] Speaker C: Buonasera, buonasera a voi.
[00:02:18] Speaker A: Buonasera, Alessandra. Grazie dell'invito.
[00:02:20] Speaker B: Allora, io partirei dal quesito su quanto detto da Alex Karp alla conferenza.
ha parlato di nazionalizzazione? Allora immagino sia chiaro che quando parla di nazionalizzazione non intende certamente una statalizzazione, ma vorremmo capirlo per i nostri ascoltatori con Samuele Mottino, che cosa intende esattamente Alex Karp quando parla di nazionalizzazione della tecnologia?
[00:02:52] Speaker A: Sì, Alessandra, come giustamente hai detto tu, quando si parla di nazionalizzazione non bisogna confonderla con la tipica statalizzazione o la ristatalizzazione delle imprese. In realtà, per capire questo concetto, che a prima vista può apparire difficile da comprendere nella sua essenza, bisogna tracciare i tipi di competizione che ci sono nei sistemi economici e nei vari settori. In generale, in settori diciamo per così dire più tradizionali, generalmente le imprese competono nel mercato. Quindi l'idea è quella che le imprese competono con i propri prodotti e servizi, possono competere giocando sull'innovazione, quindi presentando prodotti e servizi più innovativi e quindi caricando un premio di prezzo sui consumatori, oppure possono cercare di diventare più efficienti, quindi tagliare i costi, così che possano abbattere i prezzi e quindi diventare più competitivi. In questo tipo di competizione nel mercato, l'obiettivo principale è acquisire e aumentare la propria quota di mercato al fine di avere un certo livello di profittabilità e quindi essere, tra virgolette, dei player importanti nel settore e quindi generare una profittabilità attesa e sostenibile nel lungo periodo.
In realtà, già da quando si sono introdotti i concetti quello di monopolio naturale, ma anche quello di monopolio de facto, in realtà ci sono dei settori in cui la competizione non è più nel mercato, ma è una competizione per il mercato. Quindi se pensiamo ad esempio ai vari settori delle piattaforme, che possono variare da vari tipi di piattaforme, secondo me uno dei casi più interessanti storicamente e anche più facilmente comprensibile per il vasto pubblico è quello dei videogames. Quindi quando Microsoft era entrata nel settore dei videogame, come nuovo player, era entrato con una console che era palesemente in perdita.
Quindi ogni unità venduta delle proprie console non generava profitto, ma generava una perdita. e quindi ci si chiedeva il perché di questo tipo di competizione, perché era una competizione per il mercato, quindi bisognava garantire sin da subito una certa quota di mercato sostanziale al fine poi di poter rimanere nel mercato, questo perché in questi settori dove vige la competizione per il mercato è fondamentale l'inizio dell'avventura dell'impresa. Quindi quando un'impresa entra in questo settore deve generare determinate aspettative e se i consumatori invece generano in se stessi delle aspettative negative sui prodotti e servizi di queste imprese è molto difficile recuperare e quindi tendenzialmente le imprese escono dal mercato. Quindi l'idea qual è, in questa competizione per il mercato, un'impresa deve generare una quota di mercato elevata fin da subito, a qualsiasi costo, è quello che ad esempio Rolfs nel suo libro dice, investimenti che arrivano a essere irrazionali a livello statico, al fine di rimanere nel mercato.
Quando CARP parla di nazionalizzazione si fa un ulteriore step, non è più una competizione per il mercato, ma è una competizione in cui lo Stato diventa essenziale per il business. Quindi che cosa vuol dire? Vuol dire che questi operatori devono entrare nello Stato, entrare nello Stato, smontare tra virgolette delle pratiche, delle procedure, efficientare, ma anche perché, da un punto di vista proprio di accesso ai dati, hanno bisogno di dati che solo una struttura statale può avere e può dare accesso e può aggregare.
Quindi non è neanche una storia, diciamo, all'amazzucato di stato innovatore e quant'altro, ma è proprio una commestione tra pubblico e privato in cui il privato ha necessità dello Stato per accedere ai dati e quindi alla materia prima del suo business e lo Stato ha bisogno del privato perché lo Stato non è in grado, non è efficiente come il privato e quindi ha bisogno di queste tecnologie accettando di essere, tra virgolette, parzialmente smontato dal di dentro. Io voglio solo accennare un'ultima cosa su questa nazionalizzazione, che non credo che questo processo di nazionalizzazione sia comparabile, ad esempio, a una storia di sorveglianza o una replica di un modello cinese, eccetera. Anzi, questo modello è una risposta al modello cinese e questo secondo me si vede da una cosa su cui forse Andrea sarà d'accordo. è che i modelli americani, tra virgolette, possono funzionare in Europa, cioè sono compliant con la legislazione europea, mentre i modelli cinesi non lo sono, proprio perché questo modello non è basato solo sul controllo delle persone, cosa che tra l'altro uno Stato può già fare. senza bisogno del privato. Quindi essenzialmente è questo il processo di nazionalizzazione, è una interazione strategica e sinergica tra pubblico e privato al fine di migliorare i processi, processare meglio e con l'obiettivo finale di prendere delle decisioni più precise e più veloci in risposta a delle minacce, se vogliamo esterne, dove la prima minaccia esterna è sicuramente quella cinese.
[00:08:01] Speaker B: Hai appena accennato al fatto che la differenziazione tra il modello americano e quello cinese è che in teoria potrebbero già, se volessero, sommergliare i cittadini, ma non si pone questo problema perché non lo fanno, a differenza della Cina. Però arriviamo qui alle due linee rosse tracciate da Dario Modey con Anthropic, l'uso di Claude, le sue linee rosse una delle due era proprio no alla sorveglianza di massa dei cittadini e su questa linea il pentagolo stato intransigente, una era questa l'altra era no all'uso dell'intelligenza artificiale nei contesti di guerra senza supervisione umana e su queste due linee rosse il pentagono è stato intransigente al punto che Claude è stata disegnata su play chain risk, che significa non solo che il pentagono non se ne servirà più, ma nessuna delle compagnie che fa affari con il pentagono, quindi lavora all'interno del pentagono, potrà usare Claude. Quindi è stata completamente estromessa non solo dai rapporti con il pentagono, ma è estromessa da una larga fetta di mercato perché tantissime di queste compagnie tecnologiche lavorano con il Pentagono. Allora ecco lo chiedo ad Andrea perché è stata disegnata su Playchain Risk e perché se non abbiamo un problema di sorveglianza di massa dei cittadini con queste compagnie perché questa linea rossa di cloud è stata respinta?
[00:09:41] Speaker C: Per rispondere alla domanda, in una certa misura mi ricollego a quello che ha detto prima Samuel Murtino.
Alex Karp tra le pagine della Repubblica Tecnologica rovescia il paradigma di Mariana Mazzucato dello stato innovatore. In questo caso lo Stato diventa un elemento che viene in una certa misura inoculato e governato da logiche da start-up con l'apparenzione di una serie di dati e questa logica in una certa misura precede la stessa Palantir E qui ci inoltriamo proprio nel cuore del Pentagono, ma anni fa, 2016-2017, con la nascita di Project Maven, di cui in questi giorni stiamo sentendo parlare, e il 21 marzo un lancio di agenzia della Reuters riporta un memo interno al Pentagono che designerà Maven come unica infrastruttura digitale di tutto il sistema della sicurezza americana. Che cos'è Maven? Maven in una certa misura è la più perfezionata applicazione di una logica da start-up al governo della difesa della sicurezza e dell'intelligence. nasce tra il 2016 e il 2017 per volere di un colonnello dell'intelligence del Corpo dei Marine, Drew Cacor, il quale ad un certo punto si rende conto che per migliorare gli output dell'intelligence e anche semplicemente per governare l'analisi di tutti questi filmati, dati, aerofotogrammetrie che arrivavano dai droni nei conflitti in Afghanistan, ma anche contro l'Isis in Siria, in Iraq e via dicendo, era necessaria una potenza computazionale che gli analisti umani non potevano garantire. tenete presente che solo nel 2017 la mole quantitativa di filmati ripresi da droni nelle mani del Pentagono assommava 80 anni, cioè era un minutaggio tale che arrivava ad essere 80 anni e circa l'85% di quei filmati, lo ricorda il Chief Technology Officer di Palantir, che nel suo ultimo libro, Mobilize, dedica l'intero terzo capitolo alla nascita di Project Maven, l'85% di quei filmati non veniva neanche visto, quindi c'era un dispendio di risorse, di energie, quindi CACOR a un certo punto crea una sorta di sinergia tra soggetti militari pubblici, interne al pentagono e realtà ovviamente del tech. Amazon per quanto riguarda il cloud, Palantir sin dall'inizio, Google, Microsoft ed altre società e startup più piccole legate al mondo dell'intelligenza artificiale. Nel 2018 Google recede da questa partecipazione perché c'è una rivoluzione interna, uno dei primi atti di cybersindacalismo, per cui programmatori, ingegneri, ricercatori decidono di non avere nulla a che fare con il mondo della difesa. All'epoca peraltro Google viene coinvolta in una polemica non banale riguardante la Cina, perché si scopre che sta sviluppando Project Dragonfly, che è praticamente un motore di ricerca censurato per essere compliant con le richieste censorie del partito comunista cinese. Quindi il recesso viene letto non solo in chiave cyberpacifista, ma viene letto come un'autentica minaccia alla sicurezza nazionale. ci saranno le critiche di Alex Karp e quelle di Peter Thiel, ma dello stesso pentagono.
che cosa è Maven? Maven è una piattaforma cross funzionale che deve servire sia per l'analisi diciamo di dati in quantità massiva per accelerare gli output decisionali, i pattern decisionali per procedere al targeting ovviamente e in ipotesi anche essere integrata con l'OWS cioè le armi a guida autonoma ad esempio gli sciami di droni interamente governati da intelligenza artificiale che è l'altro secondo punto, quello problematico, sollevato dalla stessa Antropic. Ora, ed arriviamo alla questione di Antropic, Palantir è in una certa misura l'infrastruttura, non ha una sua intelligenza artificiale proprietaria. Le intelligenze artificiali, quindi large language model, sono proprietari di altre realtà. il più performante viene ritenuto appunto Claude di Antropic che però diciamo a differenza di Google che si era tirata fuori per motivazioni che possiamo riferire alla non voler avere a che fare con l'esercito anche se poi ovviamente potrebbero anche esserci altre motivazioni Cloud nel 2024 ha elaborato una specifica forma, uno specifico modello di Cloud integrato all'interno dell'infrastruttura Maven di Palantir, quindi non c'è da questo punto di vista una obiezione all'utilizzo bellico. Le altre due obiezioni, quelle che sono emerse adesso, sono quelle contro l'ipotesi di sorveglianza di massa e l'altra contro l'ipotesi sempre di laws.
Nel senso, perché parlo specifico ipotesi? Perché il Pentagono in realtà non ha chiesto ad Antropic di farle utilizzare con certezza per poi l'elaborazione di un sistema di sorveglianza di massa. perché tendenzialmente l'infrastruttura di Palantir è compliant con la privacy, ha una serie di sistemi di lock-in che ovviamente limitano il trasferimento dei dati.
Ovviamente è un'infrastruttura, quindi la decisione di ultimistanza poi del soggetto pubblico, quindi una ipotesi di sorveglianza viene fatta dal governante.
Da questo punto di vista dobbiamo anche dirci la verità, non è che queste piattaforme hanno definito dei modelli che poi alla fine possono aver fatto nascere delle volontà di sorveglianza di massa negli Stati. I servizi di intelligence, i servizi di pubblica sicurezza se vogliono la sorveglianza per motivi ovviamente di intelligence L'intelligence ha una normativa che noi sappiamo perfettamente, ad esempio può portare gli agenti anche a violare la legge essendo scriminati. Pensiamo anche all'ultimo decreto sicurezza in Italia che tante polemiche ha suscitato, ma questo è un elemento tipico dei servizi di intelligence. Ci sono delle bellissime pagine che Roberto Calasso nella rovina di Cash dedica proprio a questo apparente paradosso.
Quello che Antropic ha fatto è stato in realtà suscitare una serie, elaborare e poi chiaramente presentare al Pentagono i suoi titolari, tanto politici quanto militari, una serie molto ampia di obiezioni, perché noi adesso parliamo di queste due. Queste due sono il macro tema. In realtà le obiezioni sono state formulate in un memo di 25 pagine. Quindi l'irrigidimento del Pentagono non è stato tanto e semplicemente per questo di niego, ma è stato per queste 25 pagine che sono praticamente la negazione stessa di quello che Drew Cakor avrebbe voluto portare avanti, perché Cakor e il sistema MAVEN si basavano essenzialmente sul cercare di superare una serie di rendite di posizione di natura burocratica, penso al discorso della classificazione e della segretazione dei dati, penso a una certa logica di evidenza pubblica per quanto riguarda la gestione degli appalti e poi trovarsi di fronte al soggetto privato che ti crea una sovrastruttura più sclerotizzata e burocratizzata rispetto a quella per quanto possa apparire paradossale, della stessa amministrazione pubblica ha irrigitito in maniera molto forte, perché chiaramente essere blacklistati è un problema estremamente forte, gli unici casi in realtà sono casi nei confronti di società cinesi, il caso di Huawei nel 2017, quindi è un danno economico e reputazionale per Antropic estremamente rilevante, perché nei fatti di crea una sorta di tabula rasa, almeno per quanto riguarda il rapporto con le strutture pubbliche, ma questo irrigidimento ribadisco nasce da un braccio di ferro che è più complesso rispetto all'ipotesi della sorveglianza di massa o altro. La sorveglianza di massa in realtà non è creata da Maven, perché Maven tendenzialmente è un prodotto bellico, quindi è piuttosto difficile pensarne una sua implementazione in chiave civile. Quello che però nei modelli di compliance giuridica il Pentagono voleva risolvere e superare è proprio l'irrigidimento legato alle dinamiche di Constitutional Artificial Intelligence, che è il proprium di Antropic, che però apporta ad una sclerotizzazione che non è assolutamente compatibile con modelli di impiego di intelligence bellica, però ribadisco, non c'è bisogno di Maven, non c'è bisogno di quel modello per poter far sì che un governo proceda alla sorveglianza di massa.
[00:19:11] Speaker B: dire che l'intelligenza artificiale porta il discorso della sorveglianza di massa su un altro livello che non è quello che abbiamo sperimentato fino adesso. Quindi quando parliamo di intelligenza artificiale dobbiamo accettare che siamo non solo in un territorio nuovo con potenzialità che la sorveglianza come l'abbiamo conosciuta fino all'altro ieri non aveva, ma soprattutto sul fatto che ancora non conosciamo fino in fondo fino a che punto l'intelligenza artificiale potrà svingersi. Possiamo ipotizzarlo, ma siamo veramente nell'infanzia dell'intelligenza artificiale.
E allora qui, da un lato, cerchiamo un territorio neutro. Possiamo dire, va bene, io penso che una compagnia abbia il diritto di tracciare le sue linee rosse e il cliente, in questo caso il Pentagono, ha il diritto di dire ok io queste linee rosse non le accetto.
In questo caso abbiamo un rapporto tra una compagnia tech e il cliente e quindi il contratto non si fa o si rompe, fine della storia. Ma qui siamo su un livello diverso, siamo arrivati alla messa al bando totale, cioè al supply chain risk come hai detto bene tu in precedenza era successo solo per compagnie cinesi che non erano assolutamente conformi ai con le regole ed erano ritenute a rischio soprattutto perché c'era timore che sorvegliassero chiunque avesse questi telefoni Huawei.
Quindi quindi c'è stato un salto di qualità e appunto appunto che nessuna compagnia che lavora per il Pentagono potrà usare Floppy. Allora perché sia arrivati a questo punto? Se puoi spiegarci come mai per l'intelligenza artificiale abbiamo un discorso un po' diverso che per gli altri prodotti.
[00:21:07] Speaker C: Perché l'intelligenza artificiale è la spina dorsale di questo sistema che è chiaramente l'elemento saliente della sicurezza nazionale americana.
Teniamo presente che il 25 marzo del 2025 il sistema MAVEN è stato acquisito anche dalla NATO, quindi in una certa misura anche noi siamo all'interno di un sistema di protezione che è affidato al sistema MAVEN. il quale, essendo stato acquisito dalla Nato ed essendo alcune delle sottopiattaforme che lo costituiscono, sono stati dai singoli stati europei anche acquistati, penso alla Polonia, alla Francia, come diceva Samuele Murtino, da quel punto di vista c'è una compliance, ad esempio la normativa del GDPR, quindi per quanto riguarda la protezione dei dati personali che viene gestita attraverso una serie di lock-in by design e soprattutto con la designazione di responsabili del trattamento dei dati che sono sempre in capo alla struttura pubblica e L'intelligenza artificiale, soprattutto il large language model, di cui il cloud è certamente il più performante, questo è l'elemento che poi ha spinto a questo braccio di ferro, costituiscono in una certa misura la mente dell'infrastruttura. Sono riutilizzando la metafora di un analista di Bloomberg, mentre Palantir è l'abitazione cloud o chat gpt se sostituire a cloud è tendenzialmente l'inquilino ma è in una certa misura la mente perché che cosa fa fa qualcosa che prima oggettivamente non esisteva cioè processa razionalizza ed estrae dei pattern decisionali o anche semplicemente il targeting quindi l'individuazione del target da colpire superando in slancio decisionale e di analisi ovviamente migliaia di analisti.
E' stato considerato che mille analisti del Pentagono potevano analizzare una certa mo' di dati, producendo un costo di circa un miliardo di dollari, Maven quei mille analisti li supera in pochissimo tempo. e peraltro raffinando in maniera molto più ottimale quello che è l'output finale. Tanto c'è ovvero che una volta all'interno del Pentagono gli analisti, questo in realtà l'abbiamo visto anche con i film di Tom Clancy, in effetti raffinavano tutti i dati che ricevevano e utilizzavano prima delle mappe in senso veramente cartografico e geografico, poi sono state digitalizzate queste mappe, ma tendenzialmente c'era sempre questo lavoro che era prevalentemente human-centered, con chiaramente tutte le lungaggini del caso. Un sistema come Maven ha scardinato questo aspetto, ha in una certa misura introiettato la mappa all'interno di Maven, andando a costituire quello che tecnicamente nell'essico dell'intelligenza artificiale applicata agli scenari di conflitto prende il nome Digital Twin, cioè un gemello digitale che nei fatti riproduce lo scenario e lo anticipa e ti consente di allocare anche ad esempio le risorse in maniera ottimale, oltre a prevedere ipotesi di attacchi. Questo chiaramente è un novum assoluto, è una sorta di rivoluzione, perché nei fatti, nonostante ci sia ancora una presenza human-centered, perché l'integrazione di intelligenze artificiali che governano del tutto autonomamente sistemi armati come gli sciami di droni sono ancora elementi piuttosto ancillari, anche se è prevista anche questa parte. Questa parte allo stato attuale è forse la resistenza più forte di Antropic, ma anche qui In realtà il Pentagono non vuole utilizzare subito i droni a guida autonoma perché in realtà l'evoluzione tecnica, diciamo, ne siamo un po' tutti consapevoli e lo stesso Pentagono lo è.
Quello che viene contestato è il fatto che mettere, tra virgolette, una barriera burocratica da parte del privato stesso ti porta all'impossibilità e questo bene lo ha sperimentato Drew Cacore che per portare avanti Maven ha dovuto entrare anche in conflitto non banale con i suoi superiori e con una certa resistenza interna al Pentagono, ti porta poi a un momento in cui rimani completamente cristallizzato e non riesci ad andare avanti, cioè si blocca la sperimentazione che ti può poi portare anche a quel genere di evoluzione.
Dishami e Guida Autonoma, ad esempio, stanno letteralmente salvando l'Ucraina. Quindi in realtà è necessario lavorare anche in paesi sotto stress. Maven è un progetto che ha una grande, ha avuto un grande avanzamento venendo testato sotto stress. Questo era uno degli elementi salienti che Kakor ha sempre portato avanti e che è un concetto molto caro a Palantir, quello del forward deployed engineer, cioè l'ingegnere che viene messo a customizzare direttamente la piattaforma sotto stress e dove in realtà si combatte davvero. è vero, ci sono delle potenziali esternalità estremamente negative, però dall'altro lato ci sono delle esternalità che sono estremamente positive e ben lo sa l'Ucraina che su Palantir tra il 2022 e il 2024 ha basato la sua infrastruttura digitale per resistere ai russi. Tanto c'è vero che ciò è stato testimoniato da Time con quella famosa copertina di febbraio del 2024 che celebrava l'Ucraina e Palantir.
[00:26:55] Speaker B: Quindi per riassumere, per chi ci ascolta, in sostanza poiché questo tipo di tecnologia utilizza varie componenti che vengono ad incontrarsi in un ambiente nel momento in cui l'intelligenza artificiale di Claude mette delle linee rosse, automaticamente le linee rosse si propagano a tutto l'ambiente. Per questo è diventato un supply chain risk, perché nel momento in cui una persona dice no a questa cosa non si può più fare nell'intero ambiente. Questo concetto è chiaro. Faccio un'ultima domanda a Samuele.
Un altro dei punti di Antropic e di Dario Amodei era anche quello rallentiamo, nel senso che visto che ancora non sappiamo esattamente dove stiamo andando con l'intelligenza artificiale, appunto siamo nell'infanzia, stiamo esplorando delle cose che come ha detto sicuramente Andrea, in situazioni di guerra come in Ucraina, sta salvando vite, sta aiutando l'Ucraina, è importante, però ci sono alcune considerazioni da fare, non sappiamo come si evolverà e un altro aspetto è che comunque dobbiamo sempre tenere conto che in un certo punto uno stato maligno potrebbe farne uso contro i cittadini. Allora uno dei punti è che dobbiamo stabilire delle regole e come sempre in tutte le società c'è sempre un problema con le regole, perché troppe regole finiscono per soffocare lo sviluppo. Però è anche vero che nessuna regola rischia di non dare la necessaria protezione per il futuro, soprattutto non sapendo fino a che punto l'intelligenza artificiale potrà operare e come potrà essere usata. Quindi avere diciamo una, come si direbbe in inglese, safety net di base, quindi almeno un vocabolario minimo di regole. Ecco, una delle osservazioni che è stata fatta, ne avevamo parlato in passato, era se le regole le mettiamo noi, però la Cina non mette le regole, chiaramente loro vanno avanti e noi restiamo a palo. Però per me qui si pone un problema etico, nel senso che se noi rinunciamo ad avere questa rete protettiva non sta già vincendo la Cina se vogliamo nell'imporre un ambiente completamente deregolato dove il cittadino poi non ha alcuna protezione.
[00:29:34] Speaker A: Alessandra questa secondo me sono tutti argomenti più che validi nel senso che in realtà questo vale quando c'è un dialogo tra le due parti, quando c'è un dialogo tra le due parti e anche quando il settore non è se vogliamo vitale o esistenziale.
Io mi sentirei di dire che in questa battaglia per l'intelligenza artificiale la battaglia non è solo competitiva come potrebbe essere in un settore anche chiave come farmaceutica o biotech in cui uno può dire cerco di competere al meglio ma al tempo stesso io voglio comunque darmi un'etica e quindi se poi rimarrò indietro avrò comunque sempre modo di recuperare, potrò cambiare le regole in corso. In realtà in questo caso secondo me la battaglia e secondo me da questo punto di vista gli Stati Uniti non solo l'amministrazione Trump ma gli Stati Uniti in generale hanno capito che la battaglia è esistenziale nel senso che Quando poi si arriverà a un certo grado di sviluppo o a un cosiddetto salto tecnologico in questa intelligenza artificiale, chi sarà davanti potrà definire quale sarà la traiettoria.
Mentre invece se tu rischi di rimanere indietro, soprattutto di fronte a una controparte come quella cinese, sostanzialmente anche difficile dialogare, questo potrebbe diventare difficile, o meglio, quella safety net di cui tu parli, etica, potrebbe essere del tutto insufficiente a proteggerci, perché a quel punto il catch up non sarà più possibile.
E quindi a quel punto, secondo me, quello che succederà è l'approccio, diciamo, se vogliamo chiamarlo, di costituzionalizzazione dell'intelligenza artificiale europeo, è un principio che appunto in linea teorica potrebbe funzionare del tipo criterio di prudenza, non sappiamo dove andrà a finire il progresso tecnologico e quindi metto delle barriere, metto delle scorciatoie al fine di incanalare il progresso dove voglio io, Questo è un qualcosa che può funzionare, ma non sotto queste condizioni, dove la battaglia, a mio avviso, è esistenziale. Cioè bisogna fare di tutto per arrivare ad essere primi. E poi a quel punto si sceglierà e si avranno i mezzi, sostanzialmente non solo tecnologici, ma anche di potere e decisionali, per incanalare la traiettoria che seguirà questo processo.
[00:31:44] Speaker B: Ok, grazie, grazie a Samuel e Andrea per il vostro contributo.
Spero che abbiamo chiarito alcuni punti per gli ascoltatori e buona serata a tutti.
[00:31:56] Speaker A: Grazie.
[00:31:57] Speaker C: Grazie mille.
[00:31:59] Speaker A: Avete ascoltato Spin Off, il podcast di Inoltre.