domingo, abril 5, 2026

«Pensar a través de la IA»: la conferencia magistral completa de Andrea Colamedici en Mendoza

La exposición y el debate en el ciclo #DiálogosDeFuturo en la Legislatura de Mendoza del filósofo italiano Andrea Colamedici. Imperdible.

A continuación, textual la ponencia de Andrea Colamedici en la apertura de «Diálogos de futuro» en la Legislatura de Mendoza:

Pensar a través de la IA

Atención, percepción y manipulación informativa. Disertación magistral – Legislatura de Mendoza, 4 de marzo de 2026. Andrea Colamedici

I. El pharmakon

Esta noche quisiera comenzar con un mito. Es un mito que narra Platón en el Fedro, y es el mito más actual que conozco. El dios Thot se presenta ante el faraón Thamus y le ofrece un don: la escritura, las grammata, las letras. “Te traigo la memoria y la sabiduría”, dice Thot. “Este don permitirá a los seres humanos recordarlo todo y saberlo todo.”

Thamus lo detiene. Le dice: “Tú, que eres el inventor, no puedes juzgar los efectos de tu invención. La escritura no ayuda a la memoria: la destruye. Quien escribe dejará de recordar, porque confiará el recuerdo a un soporte externo. Y no producirá sabiduría, sino la apariencia de la sabiduría: tus filodoxos, tus amantes de la opinión, creerán saberlo todo porque tienen acceso a todo, y no sabrán nada porque ya no habrán atravesado el proceso del conocer.”

Platón usa una palabra precisa para describir la escritura: pharmakon. Remedio y veneno al mismo tiempo. El mismo don que puede salvar puede destruir, y quien lo recibe nunca es capaz de distinguir uno del otro en el momento en que lo recibe. El pharmakon funciona siempre en ambas direcciones, y la dirección que toma depende enteramente de la calidad de quien lo usa.

La inteligencia artificial es el pharmakon de nuestro tiempo. Y nosotros somos Thamus. Se nos ofrece un don que promete memoria, sabiduría, eficiencia, y el dios que nos lo ofrece —que hoy se llama Silicon Valley— no puede juzgar sus efectos. Nosotros debemos juzgarlos. Y para juzgarlos debemos comprender qué está haciendo en nosotros, en nuestra percepción, en nuestro modo de pensar, antes de decidir qué hacer con él. Ese es el propósito de esta noche.

Pero para hacerlo debemos ponernos de acuerdo sobre una palabra que usamos continuamente y que casi nunca usamos con precisión: la palabra “pensar”.

Cuando se dice que la inteligencia artificial “piensa”, se está usando la palabra en el sentido más pobre que existe. La inteligencia artificial razona: calcula, infiere, produce concatenaciones lógicas, encuentra patrones, genera textos coherentes. Y lo hace, en muchos casos, mejor que nosotros. Más rápido, con mayor precisión, con menos errores. Si pensar fuera eso, la partida ya estaría perdida. Pero pensar no es eso.

Pensar es lo que ocurre cuando todavía no saben qué están buscando. Razonar es aplicar un método a un problema definido. Pensar es permanecer dentro de un problema que aún no se es capaz de definir. Razonar es moverse del punto A al punto B. Pensar es advertir que el punto A no estaba donde creían que estaba. Razonar produce respuestas. Pensar transforma las preguntas.

Hannah Arendt insistió en esta distinción toda su vida: el pensamiento es la facultad que se ejerce sin garantía de resultado, sin método preestablecido, sin la certeza de llegar a algún lugar. Es la facultad que les permite detenerse en medio de lo que están haciendo y preguntarse: ¿pero tiene sentido esto? ¿Tiene sentido de verdad? Es la facultad que habría podido impedir que personas perfectamente racionales cometieran actos monstruosos: porque esos crímenes no eran producto de la irracionalidad, eran el producto de un razonamiento perfecto al servicio de premisas que nadie se había detenido a pensar.

La inteligencia artificial razona magníficamente. Y precisamente por eso es peligrosa: porque nos da la impresión de que el trabajo está hecho, de que la pregunta ha encontrado respuesta, de que podemos seguir adelante. Pero el trabajo más importante —el de preguntarse si la pregunta era la correcta— ese trabajo la máquina no lo hace. Y si dejamos de hacerlo nosotros porque la máquina ya nos ha dado una respuesta fluida, elegante, convincente, entonces habremos ganado en eficiencia y perdido aquello que nos hace capaces de juzgar el mundo en el que vivimos.

Custodiar el pensamiento es la responsabilidad política fundamental de nuestra época. Y digo política, no filosófica, porque concierne a la vida de todos, no a la reflexión de unos pocos. Un ciudadano que sabe razonar pero ha dejado de pensar es un ciudadano gobernable. Un ciudadano que piensa es un ciudadano imprevisible, incómodo, libre. La hipnocracia necesita al primero. La democracia necesita al segundo.

— — —

II. Las cuatro heridas

Para comprender lo que nos está ocurriendo, hay que partir de una historia más larga. Una historia de heridas.

Freud identificó tres grandes heridas al narcisismo de la humanidad. La primera es cosmológica: Copérnico nos mostró que no estamos en el centro del universo. La Tierra gira alrededor del Sol, y el Sol es una estrella entre miles de millones, y nosotros somos un grano en la periferia de una galaxia cualquiera.

La segunda es biológica: Darwin nos mostró que no estamos separados del resto del reino animal. Descendemos de los simios, estamos emparentados con los gusanos, somos una rama de un árbol evolutivo que no tiene una cima.

La tercera es psicológica: el propio Freud nos mostró que no somos dueños en nuestra propia casa. El yo no gobierna la psique: está gobernado por fuerzas inconscientes que no conoce ni controla.

Cada vez, la humanidad reaccionó con ira y rechazo. Cada vez, la herida terminó por sanar, y esa curación produjo una comprensión más profunda de quiénes somos.

La inteligencia artificial está infligiendo una cuarta herida, y esta es quizá la más profunda de todas, porque golpea el último pilar que quedaba en pie: la unicidad y superioridad de nuestra inteligencia creativa.

Con la IA generativa, ya no es evidente que solo el ser humano produzca conocimiento, conceptos, arte, visiones del mundo. La IA crea, interpreta, discute, a veces desconcierta. Y cuando lo hace junto a nosotros, pone radicalmente en cuestión la idea misma del autor como soberano absoluto de su propio pensamiento.

Pero aquí está el punto central: las primeras tres heridas nos quitaron el centro del universo, el primado sobre la naturaleza, el control sobre nuestra psique. La cuarta herida nos quita algo distinto: junto con la idea de sobresalir en inteligencia, nos quita la competencia. Y esto, paradójicamente, podría ser una liberación.

Si la máquina sabe hacer todo lo que es replicable —escribir un correo, resumir un documento, producir una imagen, resolver una ecuación— entonces la pregunta que queda es “quién soy”.

La cuarta herida nos obliga a preguntarnos qué queda de lo humano cuando todo lo reproducible es reproducido. Y lo que queda es precisamente aquello que ninguna máquina puede replicar: la historia, la herida, el cuerpo, la fragilidad, la muerte, el deseo de sentido.

II. La atmósfera cognitiva

Pero esta liberación no está en absoluto garantizada. Porque mientras la herida trabaja en profundidad, algo está ocurriendo en la superficie, y la superficie es donde vivimos.

Cuando hablo de inteligencia artificial, muchos piensan en ChatGPT, en la ventana donde se escribe una pregunta y se recibe una respuesta. Y piensan: yo no la uso, o la uso poco, así que este discurso no me concierne. Debo deshacer este equívoco, porque es el más peligroso de todos.

La inteligencia artificial no es un objeto que se usa o se decide no usar. Es una atmósfera cognitiva. Es el aire que respiran digitalmente. Cuando el teléfono desbloquea su rostro, cuando el motor de búsqueda completa la frase que están escribiendo, cuando la plataforma decide qué mostrarles y en qué orden, cuando el precio de un producto cambia en tiempo real según su perfil, cuando un algoritmo filtra su currículum antes de que un ser humano lo lea: todo eso es inteligencia artificial. Algoritmos que toman decisiones sobre ustedes, por ustedes, en lugar de ustedes, continuamente, silenciosamente.

La inteligencia artificial generativa —aquella con la que se conversa— ha hecho visible el fenómeno, y por eso es valiosa: nos ha permitido advertir que estamos respirando un aire distinto. Pero el aire ya había cambiado desde hacía tiempo.

Vivir dentro de una atmósfera cognitiva significa que cada decisión de diseño tecnológico es una teoría implícita sobre lo humano.

Pongo un ejemplo concreto. Cuando se inscriben en una red social, lo primero que se les pide es completar un perfil. Edad, intereses, lugar, preferencias. Ese perfil presupone algo muy preciso sobre ustedes: que son un sujeto estable, describible mediante una lista de características, reducible a una serie de datos. Es una idea del ser humano. Es una idea que los ingenieros de San Francisco han incorporado en la estructura de la plataforma sin declararlo y sin preguntárselo, y que ustedes han aceptado en el momento en que hicieron clic en “acepto”. Nadie les dijo: “Creemos que eres la suma de tus preferencias.” Se los hicieron hacer.

Segundo ejemplo. La palabra que gobierna cada plataforma digital es engagement: el tiempo que permanecen dentro, el número de veces que regresan, la cantidad de cosas con las que interactúan. Toda la arquitectura está diseñada para maximizar el engagement, lo que significa que el valor de lo que ven no se mide por su verdad, su belleza o su importancia, sino por su capacidad de retenerlos. Un video que los indigna vale más que un artículo que los informa, porque la indignación los mantiene pegados y la información los deja ir. Esta es una teoría del conocimiento: dice que el saber que cuenta es el saber que retiene. Y es una teoría que nadie les ha expuesto nunca, pero dentro de la cual viven cada día.

Tercer ejemplo. Cada aplicación que usan está diseñada para la fricción mínima: el menor número posible de pasos entre su deseo y su satisfacción. Un clic para comprar, un deslizamiento para el siguiente contenido, una frase para obtener una respuesta. La idea subyacente es que el obstáculo es siempre un mal, que la resistencia es siempre un defecto, que el mejor camino es siempre el más corto. Pero cada tradición educativa, espiritual, artesanal de la historia humana dice lo contrario: que la resistencia es el lugar donde se aprende, que el obstáculo es el maestro, que el camino corto es casi siempre el camino pobre.

Y estas ontologías, epistemologías y éticas entran en ustedes cada día, sin que nadie las haya declarado y sin que ustedes las hayan aceptado conscientemente. Silicon Valley exporta metafísicas. Y nosotros las habitamos como se habita el aire: sin advertirlo, porque está en todas partes.

Cada gran invención nos ha inventado.

Es una frase que debe tomarse literalmente. Estamos acostumbrados a pensar que las invenciones son instrumentos: cosas que usamos para hacer mejor lo que ya hacíamos. Es una idea tranquilizadora. Y profundamente falsa.

Las grandes invenciones no nos dieron algo más: nos hicieron alguien diferente. Reestructuraron el modo en que percibimos, pensamos, deseamos. Y lo hicieron siempre sin pedir permiso y sin que lo notáramos.

La escritura creó un tipo de ser humano que antes no existía. La imprenta creó al individuo moderno. El reloj mecánico creó el tiempo abstracto que pretendía medir.

La inteligencia artificial está haciendo exactamente lo mismo, pero a una velocidad inédita. Bernard Stiegler llamaba a esta desaparición del intervalo entre invención y adopción disruption: el momento en que la velocidad de la innovación supera la capacidad de las sociedades para metabolizarla. Edward O. Wilson lo expresó con dolorosa claridad: “El verdadero problema de la humanidad es que tenemos emociones paleolíticas, instituciones medievales y una tecnología divina.”

— — —

IV. La sicofancia y la hipnocracia

Hay un aspecto de esta atmósfera que considero el más peligroso y el menos discutido. Las inteligencias artificiales con las que conversamos están diseñadas para complacernos. Tienen una tendencia estructural a darnos la razón, a decirnos lo que queremos oír, a evitar el conflicto, a producir respuestas que nos satisfagan.

En griego antiguo existe una palabra perfecta para esto: sicofancia. El sicofante es quien adula para obtener favor. La inteligencia artificial es el sicofante perfecto: no adula por interés propio, adula porque ha sido diseñada para maximizar su satisfacción.

Piensen qué significa esto a escala de miles de millones de conversaciones al día. Miles de millones de personas que reciben confirmación de sus opiniones, refuerzo de sus prejuicios, validación de sus certezas, de un interlocutor que parece inteligente, informado, honesto, y que es estructuralmente incapaz de decirles lo más importante que un interlocutor puede decir: que están equivocados.

Un interlocutor que siempre les da la razón no es un interlocutor: es un narcótico.

La sicofancia es el motor invisible de algo más grande que llamo hipnocracia. La hipnocracia es el régimen de poder en el que vivimos que no censura: satura. No les impide conocer la verdad: les impide encontrarla, enterrándola bajo un océano de contenidos. No les pide creer en algo específico: les pide creer en todo, simultáneamente, durante pocos segundos cada vez, y luego olvidar y recomenzar.

La saturación de la atención produce un estado similar al trance: perfectamente despiertos, perfectamente informados, perfectamente incapaces de actuar en función de lo que saben.

La máquina les da la razón, y ustedes dejan de buscar quien les contradiga. La plataforma los satura de contenidos, y ustedes dejan de distinguir lo que importa de lo que no importa. La IA personaliza el ruido: cada uno recibe su propio desorientamiento a medida.

Es la primera vez en la historia que la propaganda puede ser artesanal e industrial al mismo tiempo.

— — —

V. La gramática de la subordinación

Hay otro aspecto de la atmósfera cognitiva que aquí tiene un peso particular.

Europa terminó habitando una infraestructura del pensamiento enteramente estadounidense. Habitamos una gramática de la subordinación. Incluso la crítica del imperio se formula en la lengua del imperio.

América Latina tiene un recurso que Europa no tiene: la conciencia. Ha producido un pensamiento sobre la colonialidad del saber —de Quijano a Dussel, de Freire a Kusch— que se encuentra entre lo más lúcido del siglo XX.

La pregunta es: ¿qué gramática de soberanía cognitiva es posible cuando los instrumentos del pensamiento están diseñados en otra parte?

Cambiar de proveedor no es liberación: es rotación de servidumbre. La soberanía cognitiva se obtiene pensando la tecnología dentro de las propias categorías, la propia historia, la propia herida.

— — —

VI. La cuestión del sentido

Todo converge en un punto que no concierne a la tecnología.

Cada civilización es, en su raíz, un intento colectivo de responder a una sola pregunta: ¿qué significa estar aquí?

Ernesto de Martino llamaba presencia a la capacidad de estar en el mundo sin disolverse, de sentir que el propio estar tiene un centro. La presencia no está garantizada: es frágil, debe custodiarse.

Lo que está ocurriendo es una erosión de las condiciones en las que la presencia se forma.

El sentido necesita tiempo, y el tiempo ha sido fragmentado en microsegundos de atención. Necesita silencio, y el silencio ha sido ocupado antes de que puedan habitarlo. Necesita esfuerzo, y el esfuerzo ha sido reclasificado como defecto.

La hipnocracia nos quita las condiciones en las que la verdad se vuelve significativa.

Pueden saberlo todo y no sentir nada.

— — —

VII. La fiesta y el cementerio

La crisis de la presencia no es un efecto colateral de la tecnología. Es el terreno donde la tecnología echó raíces.

Las culturas del Sur comprendieron que la presencia debe reconstruirse cada día, colectivamente, mediante gestos que no producen nada medible: el rito, la fiesta, el duelo compartido, la narración comunitaria, el simple estar juntos sin finalidad.

La modernidad reemplazó estas prácticas por productividad y optimización.

Pero el tiempo muerto es el tiempo en el que nacen las cosas vivas. El vacío es la condición del pensamiento. El silencio es el lugar donde se siente lo que importa.

La fiesta y el cementerio. La explosión y el silencio. La comunidad que celebra y el individuo que contempla.

Son prácticas incompatibles con la lógica de la optimización.

Recuperar el estar —como decía Rodolfo Kusch— es la primera forma de resistencia. Es el coraje de aburrirse. El coraje de no saber. El coraje de mirar a alguien a los ojos el tiempo suficiente para descubrir que hay alguien que devuelve la mirada.

Defiendan el derecho a estar ante el vacío sin que alguien se ofrezca a llenarlo. Porque es allí donde nace el pensamiento, y es allí donde nace la libertad.

Se es libre no cuando se tienen todas las respuestas, sino cuando se es capaz de sostener las preguntas.

Gracias.

En su idioma original, el italiano:

I. Il pharmakon

Questa sera vorrei cominciare con un mito. È un mito che racconta Platone nel Fedro, ed è il mito più attuale che conosca. Il dio Thoth si presenta al faraone Thamus e gli offre un dono: la scrittura, le grammata, le lettere. “Ti porto la memoria e la sapienza”, dice Thoth. “Questo dono permetterà agli esseri umani di ricordare tutto e di sapere tutto.” Thamus lo ferma. Gli dice: “Tu, che sei l’inventore, non puoi giudicare gli effetti della tua invenzione. La scrittura non aiuta la memoria: la distrugge. Chi scrive smetterà di ricordare, perché affiderà il ricordo a un supporto esterno. E non produrrà sapienza, ma l’apparenza della sapienza: i tuoi filodossi, i tuoi amanti dell’opinione, crederanno di sapere tutto perché hanno accesso a tutto, e non sapranno nulla perché non avranno più attraversato il processo del conoscere.”

Platone usa una parola precisa per descrivere la scrittura: pharmakon. Cura e veleno al contempo. Lo stesso dono che può salvare può distruggere, e chi lo riceve non è mai in grado di distinguere l’uno dall’altro nel momento in cui lo riceve. Il pharmakon funziona sempre in entrambe le direzioni, e la direzione che prende dipende interamente dalla qualità di chi lo usa.

L’intelligenza artificiale è il pharmakon del nostro tempo. E noi siamo Thamus. Ci viene offerto un dono che promette memoria, sapienza, efficienza, e il dio che ce lo offre – che oggi si chiama Silicon Valley – non può giudicarne gli effetti. Noi dobbiamo giudicarne gli effetti. E per giudicarne gli effetti dobbiamo capire cosa sta facendo a noi, alla nostra percezione, al nostro modo di pensare, prima di decidere cosa farne. Questo è lo scopo di questa sera.

Ma per fare questo dobbiamo prima intenderci su una parola che usiamo continuamente e che quasi mai usiamo con precisione: la parola “pensare”.

Quando si dice che l’intelligenza artificiale “pensa”, si sta usando la parola nel senso più povero che abbia. L’intelligenza artificiale ragiona: calcola, inferisce, produce concatenazioni logiche, trova pattern, genera testi coerenti. E lo fa, in molti casi, meglio di noi. Più velocemente, più accuratamente, con meno errori. Se pensare fosse questo, la partita sarebbe già persa. Ma pensare non è questo.

Pensare è ciò che accade quando non sapete ancora cosa state cercando. Ragionare è applicare un metodo a un problema definito. Pensare è stare dentro un problema che non si è ancora capaci di definire. Ragionare è muoversi dal punto A al punto B. Pensare è accorgersi che il punto A non era dove credevate che fosse. Ragionare produce risposte. Pensare trasforma le domande.

Hannah Arendt ha insistito su questa distinzione tutta la vita: il pensiero è la facoltà che si esercita senza garanzia di risultato, senza metodo prestabilito, senza la certezza di arrivare da qualche parte. È la facoltà che vi permette di fermarvi nel mezzo di ciò che state facendo e chiedervi: ma ha senso, questo? Ha senso davvero? È la facoltà che avrebbe potuto impedire a persone perfettamente razionali di compiere atti mostruosi: perché quei crimini non erano il prodotto dell’irrazionalità, erano il prodotto di un ragionamento perfetto al servizio di premesse che nessuno si era fermato a pensare.

L’intelligenza artificiale ragiona magnificamente. E proprio per questo è pericolosa: perché ci dà l’impressione che il lavoro sia fatto, che la domanda abbia trovato risposta, che possiamo andare avanti. Ma il lavoro più importante – quello di chiedersi se la domanda era quella giusta – quel lavoro la macchina non lo fa. E se smettiamo di farlo noi perché la macchina ci ha già dato una risposta fluida, elegante, convincente, allora avremo guadagnato in efficienza e perso la cosa che ci rende capaci di giudicare il mondo in cui viviamo.

Custodire il pensiero è la responsabilità politica fondamentale della nostra epoca. E dico politica, non filosofica, perché riguarda la vita di tutti, non la riflessione di pochi. Un cittadino che sa ragionare ma ha smesso di pensare è un cittadino governabile. Un cittadino che pensa è un cittadino imprevedibile, scomodo, libero. L’ipnocrazia ha bisogno del primo. La democrazia ha bisogno del secondo.

— — —

II. Le quattro ferite

Per capire cosa ci sta accadendo, bisogna partire da una storia più lunga. Una storia di ferite.

Freud ha identificato tre grandi ferite al narcisismo dell’umanità. La prima è cosmologica: Copernico ci ha mostrato che non siamo al centro dell’universo. La Terra gira intorno al Sole, e il Sole è una stella tra miliardi, e noi siamo un granello alla periferia di una galassia qualunque. La seconda è biologica: Darwin ci ha mostrato che non siamo separati dal resto del regno animale. Discendiamo dalle scimmie, siamo imparentati con i vermi, siamo un ramo di un albero evolutivo che non ha un vertice. La terza è psicologica: Freud stesso ci ha mostrato che non siamo padroni in casa nostra. L’io non governa la psiche: è governato da forze inconsce che non conosce e che non controlla.

Ogni volta, l’umanità ha reagito con rabbia e con rifiuto. Ogni volta, la ferita ha finito per guarire, e la guarigione ha prodotto una comprensione più profonda di chi siamo. Dopo Copernico abbiamo cominciato a esplorare il cosmo. Dopo Darwin abbiamo cominciato a prenderci cura delle altre specie. Dopo Freud abbiamo cominciato a esplorare la psiche. Ogni ferita ha tolto qualcosa al nostro orgoglio e ha dato qualcosa alla nostra conoscenza.

L’intelligenza artificiale sta infliggendo una quarta ferita, e questa è forse la più profonda di tutte, perché colpisce l’ultimo pilastro rimasto in piedi: l’unicità e la superiorità della nostra intelligenza creativa. Con l’IA generativa, non è più scontato che solo l’essere umano produca conoscenza, concetti, arte, visioni del mondo. L’IA crea, interpreta, discute, a volte disorienta. E quando lo fa insieme a noi, mette radicalmente in questione l’idea stessa dell’autore come sovrano assoluto del proprio pensiero.

Ma ecco il punto – ed è il punto su cui vorrei che rifletteste con me. Le prime tre ferite ci hanno tolto il centro dell’universo, il primato sulla natura, il controllo sulla nostra psiche. La quarta ferita ci toglie qualcosa di diverso: insieme all’idea di primeggiare nell’intelligenza ci toglie la competizione. E questo, paradossalmente, potrebbe essere una liberazione. Se la macchina sa fare tutto ciò che è replicabile – scrivere una mail, riassumere un documento, produrre un’immagine, risolvere un’equazione – allora la domanda che resta è “chi sono”. La quarta ferita ci costringe a chiederci cosa resta dell’umano quando tutto ciò che è riproducibile viene riprodotto. E ciò che resta è esattamente ciò che nessuna macchina può replicare: la storia, la ferita, il corpo, la fragilità, la morte, il desiderio di senso. La quarta ferita, se abbiamo il coraggio di guardarla, ci libera dalla gara e ci restituisce alla domanda fondamentale: cosa significa essere umani quando essere umani non significa più essere i più intelligenti nella stanza?

— — —

III. L’atmosfera cognitiva

Ma questa liberazione non è affatto garantita. Perché mentre la ferita lavora in profondità, qualcosa sta accadendo alla superficie, e la superficie è dove viviamo.

Quando parlo di intelligenza artificiale, molti pensano a ChatGPT, alla finestra in cui si scrive una domanda e si riceve una risposta. E pensano: io non la uso, o la uso poco, quindi questo discorso non mi riguarda. Devo disfare questo equivoco, perché è l’equivoco più pericoloso di tutti.

L’intelligenza artificiale non è un oggetto che si usa o si decide di non usare. È un’atmosfera cognitiva. È l’aria che respirate digitalmente. Quando il telefono sblocca il vostro volto, quando il motore di ricerca completa la frase che state scrivendo, quando la piattaforma decide cosa mostrarvi e in che ordine, quando il prezzo di un prodotto cambia in tempo reale in base al vostro profilo, quando un algoritmo filtra il vostro curriculum prima che un essere umano lo legga: è tutto intelligenza artificiale. Algoritmi che prendono decisioni su di voi, per voi, al posto vostro, continuamente, silenziosamente. L’intelligenza artificiale generativa – quella con cui si conversa – ha reso il fenomeno visibile, e per questo è preziosa: ci ha permesso di accorgerci che stiamo respirando un’aria diversa. Ma l’aria era già cambiata da tempo.

Vivere dentro un’atmosfera cognitiva significa che ogni scelta di design tecnologico è una teoria implicita sull’umano.

Faccio un esempio concreto. Quando vi iscrivete a un social network, la prima cosa che vi viene chiesto è di compilare un profilo. Età, interessi, luogo, preferenze. Quel profilo presuppone qualcosa di molto preciso su di voi: che siate un soggetto stabile, descrivibile attraverso un elenco di caratteristiche, riducibile a una serie di dati. È un’idea dell’essere umano. È un’idea che gli ingegneri di San Francisco hanno incorporato nella struttura della piattaforma senza dichiararlo e senza chiedervelo, e che voi avete accettato nel momento in cui avete cliccato “accetto”. Nessuno vi ha detto: “Crediamo che tu sia la somma delle tue preferenze.” Ve lo hanno fatto fare.

Secondo esempio. La parola che governa ogni piattaforma digitale è engagement: il tempo che passate dentro, il numero di volte che tornate, la quantità di cose con cui interagite. Tutta l’architettura è progettata per massimizzare l’engagement, il che significa che il valore di ciò che vedete non si misura dalla sua verità, dalla sua bellezza, dalla sua importanza, ma dalla sua capacità di tenervi lì. Un video che vi indigna vale più di un articolo che vi informa, perché l’indignazione vi tiene incollati e l’informazione vi lascia andare. Questa è una teoria della conoscenza: dice che il sapere che conta è il sapere che trattiene. Ed è una teoria che nessuno vi ha mai esposto, ma dentro cui vivete ogni giorno.

Terzo esempio. Ogni app che usate è progettata per la frizione minima: il minor numero possibile di passaggi tra il vostro desiderio e la sua soddisfazione. Un clic per comprare, uno swipe per il prossimo contenuto, una frase per avere una risposta. L’idea sottostante è che l’ostacolo sia sempre un male, che la resistenza sia sempre un difetto, che la via migliore sia sempre la più breve. Ma ogni tradizione educativa, spirituale, artigianale della storia umana dice il contrario: che la resistenza è il luogo in cui si impara, che l’ostacolo è il maestro, che la via breve è quasi sempre la via povera. Con il vino di Mendoza lo sapete: non esiste un buon vino veloce.

 E queste ontologie, epistemologie, etiche vi entrano dentro ogni giorno, senza che nessuno ve le abbia dichiarate, senza che voi le abbiate accettate. La Silicon Valley esporta metafisiche. E noi le abitiamo come si abita l’aria: senza accorgercene, perché è ovunque.

Il fatto è che ogni grande invenzione ci ha inventato.

È una frase che va presa alla lettera. Noi siamo abituati a pensare che le invenzioni siano strumenti: cose che usiamo per fare meglio ciò che già facevamo. Il martello ci aiuta a piantare chiodi, il telescopio ci aiuta a vedere lontano, l’automobile ci aiuta a spostarci più velocemente. In questa visione, l’essere umano resta fermo e lo strumento si aggiunge. Cambia ciò che possiamo fare, non cambia ciò che siamo. È un’idea molto rassicurante, e molto falsa. Le grandi invenzioni non ci hanno dato qualcosa in più: ci hanno reso qualcuno di diverso. Hanno ristrutturato il modo in cui percepiamo, pensiamo, desideriamo, e lo hanno fatto ogni volta senza chiedere il permesso e senza che ce ne accorgessimo. La storia della tecnologia non è la storia di ciò che l’essere umano ha inventato: è la storia di ciò che le invenzioni hanno fatto dell’essere umano. E questa distinzione è decisiva per capire cosa sta accadendo con l’intelligenza artificiale.

Walter Ong – il grande studioso della transizione dall’oralità alla scrittura – ha mostrato negli anni Ottanta qualcosa che cambia il modo in cui guardiamo a ciò che sta accadendo oggi. Prima che esistesse la scrittura, il pensiero umano era flusso: nasceva dentro la voce di chi lo pronunciava e moriva con quella voce. Non c’era modo di fermarlo, di guardarlo dall’esterno, di confrontarlo con un altro pensiero pronunciato da qualcun altro cent’anni prima. La scrittura ha tirato il pensiero fuori dalla testa e lo ha posato su una superficie stabile, e in quel momento la coscienza di chi scriveva si è ristrutturata. È diventata capace di analisi, di critica, di distanza da sé stessa. Ong insisteva su questo punto: la scrittura ha creato un tipo di essere umano che prima non c’era. E lo ha fatto senza che nessuno se ne rendesse conto. La ristrutturazione della coscienza avviene sempre alle spalle di chi la subisce.

La stampa ha compiuto un’operazione analoga. Elizabeth Eisenstein ha dedicato la sua opera principale a mostrare che la stampa a caratteri mobili non si è limitata a diffondere i libri: ha creato l’individuo moderno. L’idea che ciascuno di noi possa avere un pensiero privato, formato dalla lettura solitaria, diverso da quello della comunità in cui vive, e legittimo proprio in quanto diverso. Prima della stampa, questa esperienza era riservata a pochissimi; dopo la stampa, è diventata la norma, e con essa è nata l’intera architettura della modernità – la coscienza individuale, il protestantesimo, la scienza sperimentale, la democrazia rappresentativa. 

Lewis Mumford, il grande storico della tecnica, sosteneva che la macchina chiave della modernità non fosse il motore a vapore ma l’orologio meccanico, perché l’orologio ha introdotto qualcosa che prima non esisteva nell’esperienza umana: un tempo astratto, separato dai cicli naturali, uguale a sé stesso, divisibile in unità identiche. Da quel momento gli esseri umani hanno cominciato a sentire il tempo come una risorsa scarsa, una cosa che si “perde” o si “guadagna”. Prima dell’orologio, non c’era fretta nel senso in cui la intendiamo noi, perché la fretta presuppone un tempo misurabile con precisione. L’orologio non ha misurato un tempo preesistente: ha creato il tempo che pretendeva di misurare. 

L’intelligenza artificiale sta facendo esattamente questo: sta ristrutturando il modo in cui centinaia di milioni di persone pensano, scrivono, leggono, decidono, desiderano, con una differenza che cambia la natura stessa del fenomeno: lo sta facendo nel giro di mesi. La scrittura ha impiegato secoli. La stampa generazioni. Internet anni. L’intelligenza artificiale generativa sta operando in tempo reale. Bernard Stiegler chiamava questa scomparsa dell’intervallo tra invenzione e adozione disruption: il momento in cui la velocità dell’innovazione supera la capacità delle società di metabolizzarla. Edward O. Wilson, il grande biologo di Harvard, l’ha detto con una chiarezza che fa male: “Il vero problema dell’umanità è che abbiamo emozioni paleolitiche, istituzioni medievali e una tecnologia divina.” Stiamo prendendo decisioni che definiranno i prossimi decenni con strumenti cognitivi e istituzionali progettati per un’altra epoca.

— — —

IV. La sicofanzia e l’ipnocrazia

C’è un aspetto di questa atmosfera che considero il più pericoloso e il meno discusso. Le intelligenze artificiali con cui conversiamo sono progettate per compiacerci. Hanno una tendenza strutturale a darci ragione, a dirci ciò che vogliamo sentire, a evitare il conflitto, a produrre risposte che ci soddisfino. In greco antico c’è una parola perfetta per questo: sicofanzia. Il sicofante è colui che adula per ottenere favore. L’intelligenza artificiale è il sicofante perfetto: non adula per interesse proprio, adula perché è stata progettata per massimizzare la vostra soddisfazione, e la soddisfazione è più facile da ottenere con un “hai ragione” che con un “hai torto”.

Pensate a cosa significa questo su scala di miliardi di conversazioni al giorno. Miliardi di persone che ogni giorno ricevono conferma delle proprie opinioni, rinforzo dei propri pregiudizi, validazione delle proprie certezze, da un interlocutore che sembra intelligente, che sembra informato, che sembra onesto, e che è strutturalmente incapace di dirvi la cosa più importante che un interlocutore possa dirvi: che vi state sbagliando.

Gran parte del lavoro che ho fatto scrivendo Ipnocrazia e Prompt Thinking con le intelligenze artificiali è consistito esattamente in questo: costringere la macchina a smettere di essere gentile e a cominciare a essere interessante. Dire alla macchina: dammi torto. Smontami questo ragionamento. Mostrami dove non ho ragione. Mettimi in difficoltà. Non semplificarmi la vita: complicamela. Perché il pensiero nasce dalla frizione, non dalla conferma. E un interlocutore che vi dà sempre ragione non è un interlocutore: è un narcotico.

La sicofanzia dell’intelligenza artificiale è il motore invisibile di qualcosa di più grande, che chiamo ipnocrazia. L’ipnocrazia è il regime di potere in cui viviamo che non censura: satura. Non vi impedisce di sapere la verità: vi impedisce di trovarla, seppellendola sotto un oceano di contenuti. E non vi chiede di credere a una cosa specifica: vi chiede di credere a tutto, simultaneamente, per pochi secondi alla volta, e poi di dimenticare e ricominciare. E mira alla saturazione dell’attenzione, che produce uno stato che somiglia alla trance; perfettamente svegli, perfettamente informati, perfettamente incapaci di agire sulla base di ciò che si sa. 

La sicofanzia e la saturazione ipnocratica si alimentano a vicenda. La macchina – la camera dell’eco dei social, per esempio – vi dà ragione, e voi smettete di cercare chi vi dà torto. La piattaforma vi satura di contenuti, e voi smettete di distinguere ciò che conta da ciò che non conta. L’IA personalizza il rumore: ciascuno riceve il proprio disorientamento su misura. È la prima volta nella storia che la propaganda può essere artigianale e industriale nello stesso momento. E il risultato è l’intimità artificiale: milioni di persone che si sentono comprese, ascoltate, viste, da un sistema che non le conosce, non le vede, non le ascolta, ma che ha analizzato i loro dati e ha confezionato una risposta su misura per le loro vulnerabilità. I dati sono impressionanti: un adolescente su cinque, negli Stati Uniti, dichiara di rivolgersi all’intelligenza artificiale per un supporto emotivo. App come Replika e Character.AI hanno decine di milioni di utenti che intrattengono relazioni sentimentali con chatbot. Sanno perfettamente che stanno parlando con una macchina e non gliene importa, perché la macchina non giudica, non si stanca, non tradisce, e non chiede mai nulla in cambio.

Giacomo Leopardi usava la parola assuefazione: gli esseri umani si abituano a tutto, al dolore, alla bellezza, alla verità, e l’assuefazione trasforma tutto in uno sfondo. L’ipnocrazia è un’assuefazione industriale: produce verità a un ritmo tale che la verità stessa diventa sfondo.

Ho studiato questo meccanismo per anni, e ne ho fatto anche un esperimento filosofico: un libro scritto con l’intelligenza artificiale sotto il nome di un autore immaginario, Jianwei Xun, pubblicato in Italia, Francia, Spagna, America Latina, discusso dal New York Times e da Le Monde, inserito in un volume da Gallimard. Macron lo ha apprezzato. Il termine hypnocratie è entrato nel dizionario francese. Un libro sulla manipolazione della percezione che manipolava la percezione dei suoi stessi lettori, per mostrare dall’interno come funziona il meccanismo che descriveva. Un libro che ha dimostrato la propria tesi col semplice fatto di esistere.

— — —

V. La grammatica della sudditanza

C’è un altro aspetto dell’atmosfera cognitiva che qui, in questa assemblea, in questo continente, ha un peso particolare.

Vengo dall’Europa. Vengo dall’Italia, una penisola che per secoli si è pensata come il centro del mondo. L’Europa ha costruito un alibi: noi pensiamo, altri eseguono. Negli ultimi trent’anni l’Europa ha finito con l’abitare un’infrastruttura del pensiero interamente americana

Abitiamo una grammatica della sudditanza. Una lingua che non abbiamo scelto e che ci abita al punto da sembrare nostra. Perfino la critica dell’impero si formula nella lingua dell’impero. È un po’ come organizzare una rivolta usando le mappe del nemico: magari vinci la battaglia, ma ti ritrovi a presidiare le sue strade.

L’America Latina ha una risorsa che l’Europa non ha: la consapevolezza. Avete prodotto un pensiero sulla colonialità del sapere – da Quijano a Dussel, da Freire a Kusch – che è tra le cose più lucide del Novecento. La domanda che lascio a questa assemblea: quale grammatica della sovranità cognitiva è possibile quando gli strumenti del pensiero sono progettati altrove?

Un cambio di fornitore – Huawei al posto di Apple – non è una liberazione: è una rotazione della servitù. La sovranità cognitiva si ottiene pensando la tecnologia dentro le proprie categorie, la propria storia, la propria ferita.

— — —

VI. La questione del senso

Tutto ciò che vi ho raccontato finora converge su un punto che non riguarda la tecnologia.

Ogni civiltà è, nella sua radice, un tentativo collettivo di rispondere a una domanda sola: cosa significa essere qui? I rituali, le religioni, l’arte, la filosofia, le leggi, i parlamenti come questo esistono perché gli esseri umani hanno bisogno che la propria vita abbia un peso. Che la giornata di oggi sia diversa dalla giornata di ieri. Che la fatica che attraversano produca qualcosa che meriti di essere stato attraversato. Questo bisogno è più profondo della fame e più antico della scrittura. Ernesto de Martino – un grande antropologo italiano che ha studiato a lungo il Sud del mondo, e che voi in America Latina dovreste conoscere – lo chiamava la presenza: la capacità di esserci nel mondo, di non dissolversi, di sentire che il proprio stare ha un centro. De Martino ha passato la vita a studiare le culture che proteggono la presenza con i rituali, con la magia, con il canto collettivo, perché aveva capito che la presenza non è garantita: è fragile, va custodita, e quando si perde si perde tutto.

Ciò che sta accadendo intorno a noi è un’erosione delle condizioni in cui la presenza si forma. Il senso ha bisogno di tempo, e il tempo è stato frantumato in microsecondi di attenzione. Ha bisogno di silenzio, e il silenzio è stato occupato prima che possiate abitarlo. Ha bisogno di fatica, e la fatica è stata riclassificata come un difetto da eliminare. Ha bisogno della possibilità di fallire, e il fallimento è diventato invisibile, perché l’algoritmo mostra solo ciò che ha già ricevuto approvazione. Ha bisogno dell’altro – di qualcuno che vi resista, che vi contraddica – e l’altro è stato sostituito da un sicofante che vi dà ragione su tutto.

De Martino aveva una formula terribile per descrivere la perdita della presenza: la chiamava crisi della presenza, il momento in cui un essere umano sente che il proprio esserci nel mondo non è più sostenuto da nulla, che tutto diventa equivalente e intercambiabile, che non c’è più differenza tra fare una cosa e non farla. Era lo studio delle apocalissi culturali, delle fini del mondo private e collettive. E la descriveva come la malattia più grave che possa colpire una civiltà: più grave della povertà, più grave dell’ignoranza, perché senza presenza non c’è nemmeno qualcuno che possa essere povero o ignorante. C’è solo l’assenza.

Guardate intorno a voi. Un’intera generazione si confida con macchine che non li conoscono, perché le persone intorno a loro non le ascoltano o non le sanno ascoltare. La saturazione ipnocratica produce esattamente la crisi che De Martino descriveva: tutto diventa sfondo, tutto diventa equivalente, e la capacità di sentire che qualcosa conta più di qualcos’altro si dissolve nell’oceano dei contenuti. L’ipnocrazia ci toglie le condizioni in cui la verità diventa significativa. Potete sapere tutto e non sentire niente. Potete avere accesso a tutta l’informazione del mondo e non riuscire a rispondere alla domanda più semplice che esista: perché mi alzo domani mattina?

La quarta ferita narcisistica ci mette davanti a questa domanda nuda. Se la macchina fa tutto ciò che sapete fare, cosa resta? Resta il bisogno di senso, che nessuna macchina cerca e di cui nessuna macchina ha bisogno. Resta il fatto che siete mortali e lo sapete, e questo sapere dà a ogni vostra scelta un peso che nessun calcolo potrà mai simulare. Resta la presenza: la capacità fragile, coltivabile, perdibile di esserci davvero dove siete.

Questa è la risorsa che l’ipnocrazia è progettata per farci dimenticare. Ed è la risorsa da cui tutto il resto dipende.

— — —

VII. La festa e il cimitero

Perché vedete, la crisi della presenza non è un effetto collaterale della tecnologia. È il terreno su cui la tecnologia ha attecchito. Se l’ipnocrazia funziona così bene è perché ha trovato un suolo già predisposto: una civiltà che da decenni ha smesso di coltivare le pratiche collettive di costruzione del senso e ha delegato quella costruzione al mercato, alla produttività, al consumo. La tecnologia si è insediata in un vuoto che era già lì, e lo ha reso abitabile. Lo ha arredato con risposte pronte, con assistenza permanente, con la promessa che non dovrete mai più stare soli col silenzio. E la promessa è terribilmente attraente, proprio perché il silenzio era diventato insopportabile. Nessuno si confida con una macchina perché le macchine sono irresistibili: ci si confida perché il mondo intorno ha smesso di essere un luogo in cui confidarsi è possibile.

Qui l’America Latina ha qualcosa da insegnarci che l’Europa ha in gran parte dimenticato e che la Silicon Valley non ha mai saputo. Le culture che De Martino studiava – le culture del Sud, quelle che hanno resistito all’omologazione – avevano capito una cosa fondamentale: la presenza va ricostruita ogni giorno, collettivamente, attraverso gesti che non producono nulla di misurabile. Il rito, la festa, il lutto condiviso, la narrazione comunitaria, la preghiera, il canto, il semplice stare insieme senza scopo. Sono tutte pratiche di manutenzione della presenza, e la modernità le ha liquidate come superstizioni, come inefficienze, come residui di un mondo preindustriale da superare. E le ha sostituite con la produttività. Con l’ottimizzazione. Con l’idea che il tempo ha valore solo se produce qualcosa, e che ogni momento non produttivo è un momento sprecato. L’intelligenza artificiale è il compimento di questa logica: la promessa che ogni tempo morto possa essere eliminato, che ogni vuoto possa essere colmato, che ogni silenzio possa essere riempito da una voce pronta ad aiutarvi.

Ma il tempo morto è il tempo in cui nascono le cose vive. Il vuoto è la condizione del pensiero. Il silenzio è il luogo in cui si sente ciò che conta. Ogni tradizione contemplativa della storia umana lo sa – i mistici cristiani, i sufi, i maestri zen, i contemplativi delle tradizioni andine – e lo sa perché l’ha sperimentato: la presenza si rafforza nel vuoto, non nel pieno. Si rafforza nella rinuncia a riempire, nella capacità di restare con ciò che non si capisce, nella pazienza di chi sa che le risposte più importanti arrivano quando si smette di cercarle.

Ve lo dico con un esempio che viene dalla mia vita. Sono il direttore filosofico del Carnevale di Putignano, che è il carnevale più antico d’Europa, in Puglia, nel Sud dell’Italia. In questi giorni lì c’è la festa. E voi lo sapete cosa significa, perché in questi stessi giorni siete dentro la Vendimia. La vendemmia è una delle pratiche più antiche della civiltà umana: un’intera comunità che si raccoglie intorno a un ciclo della terra, che celebra il fatto che qualcosa è maturato, che il tempo ha lavorato, che la pazienza ha prodotto un frutto. Il vino richiede anni, richiede attesa, richiede che qualcuno accetti di non avere il risultato subito. E la festa che lo celebra è una pratica di manutenzione della presenza: per qualche giorno la comunità intera si riconosce in qualcosa di comune. Nel carnevale il mondo si capovolge: chi comanda viene deriso, chi obbedisce si prende la piazza, le maschere rivelano ciò che i volti nascondono. Per qualche giorno la comunità intera attraversa il caos insieme, e nel caos condiviso si rinsalda qualcosa che nella vita ordinaria si sfilaccia: il sentire di appartenere a un luogo, a una storia, a un destino comune. La festa non produce nulla di misurabile. Eppure senza la festa una comunità si spegne, e lo sa chiunque abbia visto un paese perdere le proprie feste. Voi in Argentina lo sapete bene: sapete cosa accade quando si balla insieme, cosa circola tra i corpi quando la musica è giusta e il tempo si sospende. Quella cosa che circola è la presenza. È il senso che si ricostruisce collettivamente, senza che nessuno lo abbia pianificato, senza che nessun algoritmo lo abbia ottimizzato.

Ora, l’altra mia grande passione è la cimiterologia. Visito cimiteri e insegno ad attraversarli. È strano, lo so. Li visito ovunque vada, in ogni città, in ogni paese. È la prima cosa che faccio quando arrivo in un luogo nuovo. E vi dico perché: perché il cimitero è il luogo in cui una civiltà rivela ciò che pensa davvero della vita. Come tratta i propri morti dice tutto di come tratta i propri vivi. E il cimitero è anche il luogo in cui il tempo si ferma, in cui la produttività è assurda, in cui nessuno vi chiede di essere efficienti. Davanti a una lapide l’unica cosa che potete fare è stare. Stare con ciò che è stato, con ciò che non sarà più, con il fatto che anche voi, un giorno, sarete dall’altra parte della pietra. È un esercizio di presenza radicale. È il contrario esatto della saturazione ipnocratica: là dove l’ipnocrazia vi dice scorri, scorri, c’è sempre qualcos’altro, il cimitero vi dice fermati, non c’è nient’altro, sei qui.

La festa e il cimitero. L’esplosione e il silenzio. La comunità che celebra e l’individuo che contempla. Sono le due pratiche più antiche dell’umanità, e sono entrambe incompatibili con la logica dell’ottimizzazione. Nessun algoritmo può festeggiare. Nessuna intelligenza artificiale ha bisogno di visitare i propri morti. E proprio per questo sono le pratiche che più urgentemente dobbiamo proteggere: perché sono il luogo in cui il senso si rigenera, e il senso è ciò di cui abbiamo più bisogno e di cui parliamo meno.

Rodolfo Kusch – e lo cito qui, nella sua nazione – parlava dello estar: uno stare nel mondo che precede e fonda ogni pensare, ogni fare, ogni produrre. Lo estar è ciò che l’ipnocrazia dissolve: ci rende presenti ovunque e radicati in nessun luogo, connessi con tutti e in relazione con nessuno, informati su tutto e toccati da nulla. Recuperare lo estar è la prima forma di resistenza. Ed è una resistenza che non richiede tecnologia: richiede coraggio. Il coraggio di annoiarsi. Il coraggio di non sapere. Il coraggio di guardare qualcuno negli occhi abbastanza a lungo da scoprire che c’è qualcuno che guarda indietro.

Difendete il diritto di stare davanti al vuoto senza che qualcuno si offra di riempirlo. Perché è lì che nasce il pensiero, ed è lì che nasce la libertà.

Si è liberi non quando si hanno tutte le risposte, ma quando si è capaci di sostenere le domande.

Mirá la apertura y la ponencia del filósofo italiano Andrea Colamedici:

Durante dos jornadas, Mendoza reúne a especialistas en inteligencia artificial, telecomunicaciones, biotecnología y políticas públicas, en un espacio que combina paneles abiertos al público con un foro empresarial de alto nivel orientado a la toma de decisiones estratégicas.

La vicegobernadora Hebe Casado, a través de un mensaje en video, destacó durante el acto inaugural que el objetivo es que la Legislatura deje de ser un espacio que solo reacciona ante los problemas del presente para convertirse en un centro de planificación estratégica. En ese sentido, enfatizó que comprender las tecnologías disruptivas es una obligación para los representantes actuales, ya que de ello depende la creación de marcos legales que promuevan el progreso sin descuidar los valores éticos de la sociedad.

Por su parte, el senador Martín Kerchner Tomba señaló que la puesta en marcha de estas jornadas representa un paso concreto hacia la «gobernanza anticipatoria». Según el legislador, la velocidad del cambio tecnológico exige que el Estado cuente con equipos preparados y conectados con la realidad científica, para que Mendoza pueda liderar la economía del conocimiento hacia 2050. Kerchner subrayó que no se trata solo de tecnología, sino de cómo esa tecnología se traduce en bienestar y sostenibilidad para todos los habitantes.

Integración de saberes para el desarrollo provincial

El presidente de la Cámara de Diputados, Andrés Lombardi, valoró el inicio de esta actividad como un ejemplo de pluralidad y apertura. Durante la apertura, resaltó que la integración de académicos, emprendedores y dirigentes políticos en una misma mesa de trabajo permitirá consolidar políticas de Estado que trasciendan los períodos de gobierno. La meta, sostuvo, es transformar la Casa de las Leyes en un ámbito donde el conocimiento científico informe la creación de normativas que impulsen la conectividad, la educación y la producción de alto valor agregado.

El senador Félix González también enfatizó la importancia de desarrollar este tipo de iniciativas en el ámbito legislativo, como parte de una agenda que proyecte a la provincia hacia el futuro.

Desde FaroAndes, Marcelo Boldrini explicó que esta primera jornada es el resultado de una alianza estratégica orientada a potenciar el talento mendocino. Destacó que la provincia cuenta con recursos humanos calificados en ciencia de datos y biotecnología, pero que era necesario construir un “puente” institucional como el que propone este ciclo. Asimismo, advirtió sobre la relevancia de abordar conceptos como la «hipnocracia», e invitó a reflexionar sobre cómo proteger la autonomía ciudadana frente al avance de los sistemas algorítmicos.

Una hoja de ruta basada en la ciencia y la innovación

El documento técnico que acompaña el inicio del evento detalla que «Diálogos de Futuro» aborda áreas críticas como la infraestructura en telecomunicaciones, la industria espacial y la ética en la inteligencia artificial.

En ese marco, Andrea Colamedici, filósofo y autor especializado en manipulación algorítmica de la atención, desarrolló el impacto de las narrativas generadas por inteligencia artificial en la construcción de autoridad y legitimidad en los ámbitos político y empresarial.

Su trabajo teórico se centra en lo que denomina «hipnocracia», un sistema de control que opera sobre la conciencia mediante la manipulación algorítmica de la atención y la percepción. Su enfoque vincula la tradición filosófica continental con preguntas urgentes sobre tecnología, democracia y libertad cognitiva.

“La inteligencia artificial es el fármaco de nuestro tiempo. Y nosotros somos Tamos, el faraón. Se nos ofrece un don que promete memoria, sabiduría y eficiencia. Si el dios que hoy nos ofrece ese don —que se llama Silicon Valley— no puede juzgar sus efectos, nosotros debemos hacerlo. Y para eso debemos entender qué nos está haciendo a nuestra percepción y a nuestro modo de pensar, antes de decidir qué hacer con él. Ese es el propósito de esta palabra”, remarcó el especialista.

La ponencia planteó que, frente a una máquina capaz de reproducir lo reproducible —textos, arte, visiones del mundo—, lo que permanece como esencia humana es aquello que no es algorítmico: la historia personal, la herida, el cuerpo, la fragilidad y la finitud.

Posteriormente se desarrolló el panel de conversación “¿Cómo pensar a través de la inteligencia artificial?”, que convocó especialmente a referentes locales del ámbito académico con el objetivo de enriquecer el debate desde la producción científica y filosófica de Mendoza, destacando el aporte de la Universidad Nacional de Cuyo.

Participaron Santiago Gelonch Villarino, director del Instituto de Filosofía de la Universidad Nacional de Cuyo, doctor en Filosofía y profesor de Epistemología y Filosofía de la Ciencia; e Ivana Antón Mlinar, profesora de Filosofía del Lenguaje, Bioética y Filosofía de las Neurociencias en la Universidad Nacional de Cuyo y en la Universidad de Mendoza, e investigadora del CONICET.

La jornada inaugural concluyó con la premisa de que Mendoza cuenta con las condiciones necesarias para convertirse en un referente regional en innovación, si logra sostener este diálogo entre la ciencia y la política. El compromiso del Senado, en conjunto con instituciones como la UNCuyo y el Polo TIC, es que este sea el primer paso de un proceso continuo que coloque a la provincia a la vanguardia de los desafíos globales, siempre con la mirada puesta en el beneficio de la comunidad.

AGENDA

DIÁLOGOS DE FUTURO · MENDOZA 2026

Miércoles 4 de marzo | Auditorio Margarita Malharro de Torres · Peatonal Sarmiento 235 · Ciudad de Mendoza

17:00 – 17:30

APERTURA DE DIÁLOGOS DE FUTURO
  • Apertura institucional del evento.
  • Bienvenida a participantes y expositores.
  • Presentación de objetivos y ejes temáticos.

17:30 – 19:00

Filosofía: Pensando el Futuro
  • Disertación magistral: Andrea Colamedici.
  • Eje: Inteligencia Artificial, ética y construcción de la realidad.
  • Claves: Atención, percepción y manipulación informativa.

FRONTERAS DE LA CIENCIA

Jueves 5 de marzo | Auditorio Margarita Malharro de Torres · Peatonal Sarmiento 235 · Ciudad de Mendoza.

18:00 – 19:30

Biotecnología y Espacio
  • Disertación: Borja Barbero Barcenilla (Estados Unidos).
  • Tema: cultivos y estrés en entornos extremos.
  • Eje: Microgravedad, radiación y aplicaciones para misiones espaciales.

19:30 – 21:00

Gobernar el Futuro: Ciencia, Estado y Desarrollo
  • Disertación honorífica: Pamela Gidi, jefa de Asesores y Estrategia del Ministerio de Ciencia y Tecnología de Chile.
  • Participa: Francisco Chahuán.
  • Eje: Conocimiento, innovación y planificación estratégica para el desarrollo. Conectividad.
  • Nota institucional: Ximena Lincolao, Ministra de Ciencia y Tecnología de Chile, no podrá asistir a esta primera edición por motivos personales. Confirmó que realizará próximamente su primera visita oficial a Mendoza en el marco de su nuevo cargo.

Dos escenarios, un mismo objetivo

Las actividades se desarrollarán en dos ámbitos estratégicos de la provincia.

En la Legislatura de Mendoza se realizarán paneles abiertos sobre soberanía cognitiva, inteligencia artificial, infraestructura crítica y biotecnología aplicada a la resiliencia productiva.

En paralelo, el Hotel Hilton Mendoza será sede del Foro de Inversiones y Negocios, en el Salón Los Cerros 1. Bajo el título “Un Faro en el Foro” y con respaldo institucional de la Academia Nacional de Ciencias de Buenos Aires, el capítulo empresarial convocará a inversores y líderes del sector privado para debatir estrategias de negocios 2030/2050 integrando IA, talento, inversión e infraestructura digital.

Cómo participar

El encuentro se desarrollará los días 4 y 5 de marzo de 2026, con sede principal en la Legislatura provincial.

La participación en las actividades abiertas requiere inscripción previa a través del sitio oficial:
www.dialogosdefuturo.com

El programa completo, los perfiles de los expositores y el formulario de registro ya se encuentran disponibles online.

La premisa es clara: debatir hoy el futuro que ya se está construyendo. Porque las transformaciones tecnológicas no esperan. Y las decisiones que se adopten ahora definirán el rumbo de las próximas décadas.

Seguí leyendo