<?xml version="1.0" encoding="UTF-8" standalone="no"?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:cc="http://cyber.law.harvard.edu/rss/creativeCommonsRssModule.html" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
    <channel>
        <title>Web e conoscenza</title>
        <description>reti sociali, ma soprattutto "conoscenza", apprendimento digitale e l' approccio alla condivisione.</description>
        <link>https://webeconoscenza.gigicogo.it?source=rss----11570e4da447---4</link>
        <image>
            <url>https://cdn-images-1.medium.com/proxy/1*TGH72Nnw24QL3iV9IOm4VA.png</url>
            <title>Webeconoscenza - Medium</title>
            <link>https://webeconoscenza.gigicogo.it?source=rss----11570e4da447---4</link>
        </image>
        <generator>Medium</generator>
        <lastBuildDate>Mon, 20 Apr 2026 02:34:09 GMT</lastBuildDate>
        <atom:link href="https://webeconoscenza.gigicogo.it/feed" rel="self" type="application/rss+xml"/>
        <webMaster><![CDATA[yourfriends@medium.com]]></webMaster>
        <atom:link href="http://medium.superfeedr.com" rel="hub"/>
        <item>
            <title><![CDATA[Dalle parole alle strutture: creare le prime skill con Claude]]></title>
            <link>https://webeconoscenza.gigicogo.it/dalle-parole-alle-strutture-creare-le-prime-skill-con-claude-024bd9f77be5?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/024bd9f77be5</guid>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[ai-automation]]></category>
            <category><![CDATA[claude]]></category>
            <category><![CDATA[skills]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Thu, 16 Apr 2026 21:58:19 GMT</pubDate>
            <atom:updated>2026-04-16T21:58:18.600Z</atom:updated>
            <content:encoded><![CDATA[<h4>Un esempio pratico per capire cosa cambia davvero quando passi da una richiesta a una struttura riusabile</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*NqCNSScQZ-ZHz2vfq847KA.png" /></figure><p>Nel <a href="https://webeconoscenza.gigicogo.it/perché-parlare-con-lai-non-basta-più-e-cosa-sono-davvero-le-skill-35cec8b11dc4">precedente</a> articolo ho provato a spostare il focus da un’idea ormai limitante: “parlare con l’AI”, verso qualcosa di più strutturato: <strong>le skill come unità riusabili, modulari e progettate</strong>.</p><p>Se quel passaggio ti è rimasto un po’ astratto, è normale. Finché non si entra in un ambiente reale, il rischio è di percepire le skill come “<strong>prompt un po’ più evoluti</strong>”. Ma non è così.</p><p>In questo secondo passaggio iniziamo a lavorare in concreto, ma con un obiettivo preciso: <strong>capire cosa stiamo costruendo davvero</strong>, non solo “come si fa”.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FUwowYhx4lic%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DUwowYhx4lic&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FUwowYhx4lic%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/f619895e27ebe1a3aa71891f17423e15/href">https://medium.com/media/f619895e27ebe1a3aa71891f17423e15/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><p>Per farlo iniziamo con <a href="https://claude.ai/chat/a85e4e2d-9808-47cb-9c69-2778fcf400f2">Claude</a>, che oggi rappresenta <strong>uno degli ambienti più interessanti per questo tipo di approccio</strong>. Non perché sia l’unico, e nemmeno perché sia necessariamente il migliore in assoluto, ma perché rende visibile un aspetto che altrove spesso resta nascosto:<strong> la trasformazione di una richiesta in una struttura riusabile</strong>, separata dalla singola conversazione.</p><p>Qui non stiamo semplicemente scrivendo prompt migliori. Stiamo iniziando a costruire qualcosa che può essere: salvato, riutilizzato, modificato, condiviso e, soprattutto, <strong>evoluto nel tempo.</strong></p><p>È un cambio di prospettiva non banale. E si capisce davvero solo quando si passa dall’idea alla pratica.</p><p>Partiamo quindi da un caso semplice: <strong><em>creare una skill per riassumere un video YouTube</em></strong>. Non perché sia un esempio straordinario, ma perché è abbastanza concreto da far emergere la logica di fondo.</p><p>Nel prossimo passaggio non limitarti a seguire i click e le screenshot, ma prova a osservare cosa sta succedendo sotto la superficie. È lì che sta il punto.</p><h3>Il processo di creazione</h3><p>Partiamo dall’opzione più semplice, ovvero quella ‘<strong>assistita’</strong> e diamoci un’obiettivo che diventa la prima descrizione utile: ‘<strong><em>Riassumere un video di YouTube in lingua inglese in un documento organizzato, strutturato e dal linguaggio comprensibile e semplice per non addetti ai lavori</em></strong>’.</p><p>Dal menu di Claude dobbiamo scegliere prima l’opzione: ‘<strong>Personalizza’ </strong>e successivamente<strong> ‘Competenze’.</strong></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/296/1*SG-0UclxlBgTzJMqdEiBmA.png" /></figure><figure><img alt="" src="https://cdn-images-1.medium.com/max/296/1*SCFWKwYB2SMgfcrA_XOD2w.png" /></figure><p>A questo punto possiamo esplorare in pieno questa funzionalità e <strong>il mondo che si apre davanti a noi</strong>. Ovvero la possibilità di far creare direttamente a Claude la nostra skill con una semplice interazione via chat. <br>Quindi operiamo per la prima opzione: ‘<strong>Crea con Claude’</strong></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/506/1*tFBEzwVVYj2znOen6lhhMg.png" /></figure><p>Grazie a questa opzione possiamo sfruttare il vantaggio di <strong>descrivere l’obiettivo in linguaggio naturale</strong> e iniziare un’interazione che, di fatto, serve a Claude per comprendere il nostro scopo.</p><p>Con questa scelta mi approccio ora a seguire il suggerimento di Claude nel prompt e a digitare l’obiettivo con una formulazione molto semplice, quasi basica (in pratica mi limito a fare copia e incolla dell’idea che mi ero appuntato).</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/738/1*cWR2sM5EDQll7pOaUvdctg.png" /></figure><p>A questo punto vale la pena fermarsi un attimo, perché qui succede qualcosa di più interessante di una semplice “compilazione guidata”.</p><p>Claude non sta raccogliendo informazioni per scrivere un prompt più lungo. <strong>Sta cercando di costruire una struttura che separa chiaramente</strong>:</p><ul><li>l’obiettivo (cosa vuoi ottenere);</li><li>gli input (da dove arrivano i dati);</li><li>le trasformazioni (come devono essere trattati);</li><li>l’output (in che forma devono essere restituiti).</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*g0MQgUTUgFyAqU7Iu_HHhw.png" /></figure><p>Questa distinzione è il passaggio chiave. È ciò che trasforma una richiesta occasionale in qualcosa che può essere riutilizzato nel tempo, senza dover ogni volta ripartire da zero.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/837/1*s0-nNghCD5MAmAT1WhTxtA.png" /></figure><p>Come potete notare, Claude mi propone tre schede da compilare con domande a risposta multipla.<br>Anche questo passaggio non è banale: <strong>serve a restringere il perimetro della struttura che sta costruendo</strong>, rendendo meno ambigua la definizione di input, trasformazioni e output.</p><p>A questo punto, le mie risposte provano a suggerirle un perimetro più preciso.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/636/1*5qIpCykHaQL9b7mA6-6gsQ.png" /></figure><p>Claude si rimette all’opera e prova a scrivere la skill. I passaggi che mostra (il suo “ragionamento”) possono sembrare poco leggibili o addirittura inutili per chi non ha familiarità tecnica. Ma il punto non è capire ogni riga. Il punto è un altro: <strong>stiamo delegando la costruzione di una struttura operativa, non solo la generazione di un output</strong>. E questa struttura, anche se in parte opaca, è replicabile, modificabile e migliorabile nel tempo.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/769/1*UVpqwA6Hoh3cl4vIoSO0eA.png" /></figure><p>La risultante sarà un vero e proprio <strong>prodotto</strong>, ovvero un file denominato <strong>youtube-summarizer/SKILL.md</strong> (MD sta per <a href="https://it.wikipedia.org/wiki/Markdown">markdown</a>, linguaggio di markup leggero) che potremo scaricare così com’è, cambiare a nostro piacimento, condividere con il mondo intero o semplicemente iniziare a usare.</p><p>Sarà comunque un oggetto ibrido e non per tutti. Ovvero spesso è composto di sole istruzioni e ragionamento ma, altrettanto spesso, può essere accompagnato da righe di codice e questo non è certo pane per tutti i buongustai.</p><p>Ma per questa demo è sufficiente fidarsi. Avremo tempo per indagare, migliorare, incuriosirci e perfezionare le cose.<br>Dunque salviamo la skill che ora sarà ben posizionata nel nostro ambiente Claude, assieme alle altre che abbiamo prodotto in precedenza o che abbiamo acquisito da altri ambienti (repository, community, passa parola, social, ecc.).</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/839/1*IwjnUB3FVnjIdZtb1ZqpQg.png" /></figure><p>Per chi volesse provarla, la metto a disposizione a questo <a href="https://github.com/gigicogo/Claude-skill">link</a>.</p><p><a href="https://github.com/gigicogo/Claude-skill">GitHub - gigicogo/Claude-skill: Raccolta di skill e manuali per creare skill su Claude e altri LLM</a></p><p>Ora sono finalmente pronto a testarne le capacità e, per fare ciò, nell’ambiente Claude sarà sufficiente richiamare la skill nella finestra di dialogo con il chatbot</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/731/1*RCXT5gGtCsLjxIMrJn-vZA.png" /></figure><p>Per il primo test ho scelto come video da processare, la registrazione di una lezione sull’AI (in inglese) dell’Università di Stanford: <a href="https://youtu.be/k1njvbBmfsw?si=kfTYILEAWZlFilPo">https://youtu.be/k1njvbBmfsw</a></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*tUQL79AD2BDLAQEb6LHOhA.png" /><figcaption><a href="https://youtu.be/k1njvbBmfsw?si=kfTYILEAWZlFilPo">https://youtu.be/k1njvbBmfsw</a></figcaption></figure><p>A questo punto arriva la parte più interessante: <strong>il test.</strong></p><p>Il risultato, almeno nel mio caso, è stato “sufficiente”, ma non ancora soddisfacente. <strong>Ed è esattamente quello che ci si deve aspettare.</strong></p><blockquote># Beyond LLM: Potenziare le Applicazioni con Large Language Models<br>**Corso:** CS230 Deep Learning — Stanford University | **Durata:** ~1h 49m</blockquote><blockquote>## 📌 Panoramica<br>Lezione pratica del corso CS230 di Stanford che accompagna gli studenti dal concetto di neurone singolo fino alla progettazione di sistemi AI agentici complessi. Il docente mappa l’intero stack di tecniche disponibili per potenziare un LLM base — dal prompting al RAG fino ai workflow multi-agente — con un orientamento esplicitamente professionale e applicativo.</blockquote><blockquote>## 🔑 Punti chiave<br>- I modelli LLM base hanno limitazioni strutturali: conoscenza non aggiornata, contesto limitato, difficoltà di controllo, lacune su domini specifici<br>- Il **prompt engineering** è la prima e più flessibile linea di ottimizzazione: zero-shot, few-shot, chain-of-thought, prompt chaining<br>- Il **fine-tuning** è spesso sconsigliato: costoso, lento, soggetto a overfitting e rapidamente obsoleto rispetto ai nuovi modelli<br>- Il **RAG** risolve i problemi di contesto, aggiornamento e sourcing integrando basi di conoscenza esterne senza toccare il modello<br>- I **workflow agentici** trasformano l’LLM da strumento passivo a sistema che pianifica, esegue azioni, usa tool e aggiorna la memoria<br>- La **valutazione (eval)** richiede metriche sia oggettive che soggettive, component-level ed end-to-end<br>- I sistemi **multi-agente** abilitano parallelismo, specializzazione e riuso degli agenti<br>- Il futuro passa per nuove architetture, multimodalità e velocità di cambiamento senza precedenti</blockquote><blockquote>## 📖 Contenuto dettagliato</blockquote><blockquote>### 1. Limiti dei modelli LLM base `[00:03]`<br>Domanda aperta agli studenti per costruire il quadro dei problemi: domain knowledge mancante, distribution shift, conoscenza non aggiornata (aneddoto su Trump e “covfefe” che mandò in crisi i sistemi Twitter nel 2017), controllabilità difficile (caso del bot Tay di Microsoft rimosso dopo 16 ore), performance insufficienti su task specializzati ad alta precisione, contesto limitato (~200K token = circa 2 libri), allucinazioni pericolose in ambiti medici ed educativi.</blockquote><blockquote>### 2. Prompt Engineering `[00:17]`<br>Zero-shot, few-shot (con esempio di classificazione recensioni biotech calibrata sul contesto aziendale), chain-of-thought, prompt chaining (esempio: email di risposta a cliente insoddisfatto spezzata in 3 prompt sequenziali con output intermedi verificabili). Introdotto il concetto di **LLM-as-judge** per valutazione automatica degli output: pairwise comparison, single answer grading, rubric-based grading con esempi few-shot.</blockquote><blockquote>### 3. Fine-Tuning `[00:41]`<br>Posizione critica esplicita del docente. Tre motivi principali: richiede molti dati etichettati, è costoso e lento, per il tempo che ci vuole esce un modello base migliore. Esempio illustrativo: fine-tuning su messaggi Slack che produce un modello che risponde “ci lavoro domani mattina” anziché eseguire il compito, imitando il comportamento umano per overfitting. Rimane valido solo per output ad alta precisione su linguaggio di dominio molto specifico.</blockquote><blockquote>### 4. RAG — Retrieval Augmented Generation `[00:44]`<br>Meccanismo base: embedding dei documenti → vector database → retrieval per distanza vettoriale → inserimento come contesto nel prompt finale. Tecniche avanzate: **chunking gerarchico** (documento + capitoli + paragrafi per migliore sourcing), **HyDE** (Hypothetical Document Embeddings: si genera un documento fittizio dalla query per migliorare la rilevanza del retrieval). Soluzione privilegiata per knowledge management, sourcing, aggiornamento continuo senza retraining.</blockquote><blockquote>### 5. Workflow Agentici `[00:54]`<br>Definizione di Andrew Ng di “agentic workflow” come alternativa al termine ambiguo “agente”. Architettura: prompts + context management (working memory veloce vs archival memory lenta) + tools (API, web search, code executor) + risorse (CRM, database). Gradi di autonomia: step hardcodati → tool hardcodati step liberi → agente crea tool in autonomia. Introdotto **MCP (Model Context Protocol di Anthropic)** come standard per comunicazione agent-to-agent scalabile. Distinzione chiave tra ingegneria deterministica (sicura, prevedibile) e fuzzy engineering (flessibile ma fragile, richiede guardrail).</blockquote><blockquote>### 6. Eval `[01:19]`<br>Come misurare se un agente funziona davvero. Metriche **oggettive** (il volo prenotato è il più economico?), metriche **soggettive** (ha scelto correttamente tra volo diretto e coincidenza?), valutazione **end-to-end** (rating utente) vs **component-based** (ogni step del workflow). LLM judge con rubric per scalare la valutazione senza revisione umana continua.</blockquote><blockquote>### 7. Sistemi Multi-Agente `[01:34]`<br>Vantaggio principale: parallelismo e riusabilità degli agenti tra team diversi. Esercizio interattivo: progettazione di un sistema di home automation con agenti specializzati (clima, sicurezza, energia, frigo, meteo, orchestratore) in struttura gerarchica con connessioni dirette dove necessario via MCP.</blockquote><blockquote>### 8. Tendenze Future `[01:43]`<br>Plateau degli LLM e necessità del prossimo salto architetturale; multimodalità come fonte di guadagni trasversali; integrazione di più paradigmi di apprendimento ispirata all’apprendimento umano; velocità di cambiamento come ragione per preferire comprensione ampia a competenze tecniche specifiche (half-life delle skill molto basso).</blockquote><blockquote>## 💡 Conclusioni e Takeaway<br>La lezione offre una mappa pratica completa: si parte dal prompting come prima leva flessibile, si sale verso RAG e workflow agentici per gestire complessità crescente. Il messaggio centrale è evitare il fine-tuning quando possibile, investire nella valutazione sistematica, e pensare ai sistemi AI come si pensa al management. In un campo che cambia ogni sei mesi, la priorità non è padroneggiare ogni tecnica, ma costruire la capacità di capire e imparare velocemente.</blockquote><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*4zNoMfjsc8Gr4w9fqWd52w.png" /></figure><p>Una skill raramente funziona al primo tentativo. Non perché il modello sia limitato, ma perché la struttura che abbiamo definito è ancora troppo generica, poco vincolata o non abbastanza esplicita su cosa deve davvero fare.</p><p>Questo è il momento in cui cambia il modo di lavorare: <strong>non si riscrive tutto da capo, ma si interviene sulla skill, raffinando istruzioni, vincoli e formato dell’output</strong>. In altre parole, si passa da “provare un prompt” a <strong>iterare su un sistema</strong>.</p><h3>Conclusioni</h3><p>C’è un altro aspetto che qui resta sullo sfondo, ma che diventerà centrale nei prossimi passaggi.</p><p>Questa skill è stata creata dentro Claude, ma <strong>la logica che la sostiene non è legata a questo ambiente specifico</strong>. È una struttura che, con gli opportuni adattamenti, può essere trasferita, reinterpretata o ricostruita anche in altri contesti: altri chatbot, altri framework, altri sistemi agentici.</p><p>Ed è proprio questo il punto: non stiamo imparando uno strumento. <strong>Stiamo iniziando a ragionare in termini di componenti riusabili, indipendenti dal contenitore in cui vengono eseguiti</strong>.</p><p>Ci vediamo al prossimo capitolo di questa saga sulle skill e altre automazioni.</p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=024bd9f77be5" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/dalle-parole-alle-strutture-creare-le-prime-skill-con-claude-024bd9f77be5">Dalle parole alle strutture: creare le prime skill con Claude</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Perché parlare con l’AI non basta più (e cosa sono davvero le skill)]]></title>
            <link>https://webeconoscenza.gigicogo.it/perch%C3%A9-parlare-con-lai-non-basta-pi%C3%B9-e-cosa-sono-davvero-le-skill-35cec8b11dc4?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/35cec8b11dc4</guid>
            <category><![CDATA[agentic-ai]]></category>
            <category><![CDATA[ai-agentic-workflow]]></category>
            <category><![CDATA[skills]]></category>
            <category><![CDATA[claude]]></category>
            <category><![CDATA[intelligenza-artificale]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Tue, 14 Apr 2026 10:19:22 GMT</pubDate>
            <atom:updated>2026-04-14T10:19:21.477Z</atom:updated>
            <content:encoded><![CDATA[<h4>Dalla ripetizione dei prompt ai sistemi che agiscono: come trasformare interazioni manuali in capacità riutilizzabili</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*apSf3mkRVN26XMGwQHXABg.png" /></figure><p>Interagire con i chatbot di Intelligenza Artificiale, alla lunga, può diventare noioso. Non perché non funzionino, anzi, ma perché dopo l’entusiasmo iniziale ci si ritrova a fare sempre le stesse cose: scrivere prompt simili, copiarli, adattarli, correggerli.</p><p>È un paradosso interessante. Anche quando si applicano tecniche avanzate di <strong>prompt engineering (</strong>dal role-play al prompt chaining, fino agli approcci few-shot, ecc.) il problema non scompare: si raffina, ma resta.</p><p>Le interazioni diventano più efficaci, ma non necessariamente più efficienti.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2Fpku46PPP1T0%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3Dpku46PPP1T0&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2Fpku46PPP1T0%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/ad4a6786257dfacf18f236bd583170d4/href">https://medium.com/media/ad4a6786257dfacf18f236bd583170d4/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><p>Per gestire questa ripetitività, molti costruiscono una <strong>prompt library</strong>, ovvero<strong> </strong>una raccolta di prompt già testati e riutilizzabili. È una soluzione sensata, ma non risolve davvero il problema. Ripetere manualmente prompt, anche ben progettati, introduce errori, rallenta i processi e soprattutto <strong>limita la scalabilità</strong>: quello che funziona per una persona o un piccolo team difficilmente regge quando le attività aumentano.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*dajjtrARU38G-7xtOU8_gA.png" /></figure><h3>È qui che il paradigma cambia.</h3><p>Negli ultimi anni l’IA generativa si è evoluta rapidamente: dai chatbot basati su risposte predefinite siamo passati a modelli capaci di comprendere contesto, lavorare su più modalità (testo, immagini, audio) e, più recentemente, a sistemi in grado di eseguire vere e proprie sequenze di azioni. Non solo rispondono, ma iniziano ad “agire”.</p><p>In questo scenario emergono tre concetti chiave: <strong><em>skill</em>, <em>progetto</em> (o <em>Gem</em>) e <em>agente</em></strong><em>, </em>che vengono spesso usati in modo intercambiabile, ma che in realtà rappresentano livelli diversi della stessa architettura. Capire come si differenziano è il passaggio necessario per trasformare una serie di interazioni ripetitive in qualcosa di più strutturato: <strong>processi automatizzati, riutilizzabili e, soprattutto, scalabili.</strong></p><p>Questo non significa che il passaggio sia immediato o privo di complessità: costruire sistemi basati su skill richiede scelte architetturali precise, gestione del contesto e attenzione all’affidabilità. Ma senza questo cambio di prospettiva, si resta bloccati in una logica di interazione manuale difficile da scalare.</p><h3>Il cambio di prospettiva</h3><p>Il punto, ora, non è più scrivere prompt migliori, ma <strong>smettere di scriverli ogni volta da capo</strong>.<br>Se una stessa richiesta si ripete, anche solo con piccole variazioni, continuare a gestirla manualmente diventa rapidamente inefficiente. È come riscrivere ogni volta la stessa email invece di creare un modello riutilizzabile: funziona, ma non scala.</p><p>Qui entra in gioco un cambio di approccio: iniziare a trattare queste richieste non più come singole interazioni, ma come capacità riutilizzabili. Invece di pensare “cosa devo chiedere al chatbot?”, la domanda diventa “cosa deve saper fare questo sistema?”.</p><p><strong>Ed è esattamente in questo passaggio che emergono le skill.</strong></p><h3>Tradotto in concreto</h3><p>Una skill, in concreto, è una singola capacità operativa: <strong>qualcosa che il sistema sa fare e può riutilizzare ogni volta che serve</strong>. Può essere tradurre un testo, leggere un file Excel, recuperare dati da un database o inviare una richiesta a un’API. Non è un’idea astratta: è un’azione precisa, progettata per funzionare sempre allo stesso modo. <strong>Non rende automaticamente intelligente il sistema, ma lo rende più performante.</strong></p><p>Forse ci hai già fatto la conoscenza se hai un <a href="https://www.amazon.it/b?ie=UTF8&amp;node=13944605031">dispositivo Alexa</a>. Forse. In effetti, la logica è, più o meno, la stessa.</p><p>Vista così, una skill assomiglia più a una funzione che a una conversazione. Non “risponde”: esegue. E proprio per questo può essere riutilizzata, combinata e testata.</p><p>Il punto però è che una singola capacità, da sola, serve a poco. È quando più skill vengono messe insieme che iniziano a emergere comportamenti più interessanti. Qui entra in gioco quello che possiamo chiamare un <em>progetto</em> (o una <em>Gem </em>nell’ecosistema di Google) cioè un contenitore che organizza queste capacità, aggiunge istruzioni e definisce un obiettivo.</p><p>Un esempio semplice: analizzare un curriculum è una skill. Confrontarne diversi, applicare criteri e produrre una sintesi è già qualcosa di più strutturato. È un piccolo sistema, non più una singola azione.</p><p>A questo livello entra in gioco un altro elemento spesso sottovalutato: <strong>le istruzioni</strong>. Non fanno nulla direttamente, ma influenzano tutto. Sono quelle che definiscono come il sistema deve ragionare, cosa privilegiare, cosa evitare. Le skill eseguono, le istruzioni orientano.</p><p>Poi c’è il livello ancora successivo, quello degli <em>agenti</em>. Qui non si tratta più solo di avere capacità e organizzarle, <strong>ma di decidere quando usarle</strong>. Un agente sceglie quali skill attivare, in quale ordine e con quali condizioni. Può analizzare una richiesta, capire se ha abbastanza informazioni, decidere se chiedere chiarimenti oppure procedere.</p><p>Ed è qui che il comportamento diventa meno prevedibile: a differenza di un flusso rigido, un agente può prendere strade diverse a seconda del contesto. Non sempre sbaglia, ma non è neanche completamente deterministico.</p><p>Per evitare confusione, è utile chiarire un ultimo punto: spesso si parla di <em>tool</em>, ma non sono la stessa cosa delle skill. I tool sono gli strumenti tecnici (API, funzioni, integrazioni ) mentre le skill sono il modo in cui queste capacità vengono organizzate e utilizzate. Una skill può usare uno o più tool, ma non coincide con essi.</p><p>Se mettiamo insieme questi elementi, il quadro diventa più chiaro: le skill eseguono azioni, i progetti le organizzano in qualcosa di coerente, gli agenti decidono come usarle.</p><p>Ed è proprio da qui che nasce il vero salto: <strong>passare da una sequenza di richieste manuali a un sistema che lavora per obiettivi.</strong></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*hZwLvDzd73hbKq-ZyGXZQA.png" /></figure><h3><strong>Skill all’opera</strong></h3><p>Per capire davvero la differenza, basta guardare una situazione molto comune: la gestione delle email di supporto clienti.</p><p>Nel modello “a prompt”, ogni volta che arriva una richiesta devi fare più o meno sempre la stessa cosa: copiare il testo, incollarlo, chiedere al chatbot di analizzarlo, magari aggiungere qualche istruzione per adattare il tono o verificare informazioni. Funziona, ma ogni passaggio è manuale.</p><p>Ora prova a immaginare lo stesso scenario costruito con le skill. Il sistema legge automaticamente l’email, recupera lo storico del cliente, verifica se esiste già una risposta nelle FAQ e, solo a quel punto, genera una risposta o decide di aprire un ticket.</p><p>La differenza non è nella qualità della risposta, ma nel modo in cui ci arrivi. <strong>Nel primo caso stai guidando ogni singolo passaggio. Nel secondo hai costruito un insieme di capacità che lavorano insieme.</strong></p><p>Ed è proprio questo il punto: <strong>quando le skill iniziano a combinarsi, smetti di interagire e inizi a delegare</strong>.</p><h3>Conclusione</h3><p>Le skill, viste così, non sono un dettaglio tecnico, ma un cambio di prospettiva.<br>Finché restiamo nel paradigma del prompt, ogni interazione richiede attenzione, tempo e controllo. Possiamo migliorarla, ottimizzarla, standardizzarla, ma resta comunque un’azione manuale.</p><p>Quando iniziamo a ragionare in termini di skill, invece, iniziamo a costruire <strong>qualcosa che può essere riutilizzato, combinato e scalato</strong>. Non stiamo più chiedendo a un sistema di fare qualcosa per noi, stiamo definendo cosa deve essere in grado di fare, ogni volta che serve.</p><p>È qui che l’intelligenza artificiale smette di essere uno strumento conversazionale e diventa <strong>un sistema operativo fatto di capacità</strong>.</p><p>Ma questo è solo il primo passo. Perché nel momento in cui queste capacità iniziano a essere orchestrate in modo dinamico, <strong>entrano in gioco gli agenti e con loro un livello di autonomia (e imprevedibilità)</strong> che cambia di nuovo le regole del gioco.</p><p>Questo è il primo di una serie di articoli sulle skill, quindi allacciate le cinture perchè già dal prossimo vedremo cosa succede quando iniziamo a lavorare sul serio. E inizieremo da <a href="https://claude.ai/">Claude</a>, l’ambiente dove le skill danno il meglio.</p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=35cec8b11dc4" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/perch%C3%A9-parlare-con-lai-non-basta-pi%C3%B9-e-cosa-sono-davvero-le-skill-35cec8b11dc4">Perché parlare con l’AI non basta più (e cosa sono davvero le skill)</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[L’AI diventa tascabile]]></title>
            <link>https://webeconoscenza.gigicogo.it/lai-diventa-tascabile-bc484462b7a5?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/bc484462b7a5</guid>
            <category><![CDATA[dongle]]></category>
            <category><![CDATA[pocket-ai]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[usa]]></category>
            <category><![CDATA[ai]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Fri, 10 Apr 2026 11:24:51 GMT</pubDate>
            <atom:updated>2026-04-11T09:15:18.685Z</atom:updated>
            <content:encoded><![CDATA[<h4>Perché ASUS UGen300 segna un nuovo capitolo dell’intelligenza artificiale personale</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*U0XWi3VGFRQCGHeUHH-JPg.png" /></figure><p>Negli ultimi anni si è parlato sempre più spesso di intelligenza artificiale “democratica”, cioè accessibile a tutti e non solo ai grandi provider tecnologici del cloud. Con strumenti come <a href="https://ollama.com">Ollama</a> (ma non solo) e <a href="https://webeconoscenza.gigicogo.it/la-funzione-computer-di-perplexity-fc9a84825056">piccoli computer domestici</a>, molti hanno iniziato a sperimentare modelli linguistici direttamente a casa, senza passare dal cloud.</p><p><a href="https://webeconoscenza.gigicogo.it/ia-generativa-sul-tuo-computer-nessun-dato-condiviso-in-rete-c1c88d181cd3">IA generativa sul tuo computer: nessun dato condiviso in rete!</a></p><p>Parallelamente, le comunità di sviluppatori e sperimentatori hanno iniziato a vedere il Mac Mini e in generale i mini‑PC come ottime macchine sempre accese per ospitare modelli locali, grazie ai consumi ridotti e alla buona dotazione di memoria unificata nelle versioni più recenti.</p><p>Ma ora sta arrivando qualcosa che potrebbe rendere questa trasformazione ancora più radicale: <strong>l’AI che entra in una chiavetta USB</strong>.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FL3On8zUahCY%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DL3On8zUahCY&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FL3On8zUahCY%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/bdff1edaa34a43d6257f76afad4b4c6d/href">https://medium.com/media/bdff1edaa34a43d6257f76afad4b4c6d/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><p>Sembra quasi fantascienza, ma è esattamente ciò che sta accadendo.</p><p>In questo contesto si inserisce <a href="https://www.asus.com/motherboards-components/ai-accelerator/ugen/ugen300-usb-8g/">ASUS UGen300</a>, una piccola chiavetta USB che porta l’intelligenza artificiale avanzata direttamente sul tuo computer (e su alcuni smartphone), senza bisogno di collegamento internet. È un’innovazione importante perché permette di usare l’AI, che di solito si trova nei grandi data center, comodamente a casa o in ufficio. Si tratta di un tassello importante nella traiettoria che porta l’AI dal data center al salotto di casa o al piccolo ufficio.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/692/1*ws-z1QO7xTTB0mg9iSv_1A.png" /></figure><h3>Cosa c’è dentro questa chiavetta (spiegato semplice)</h3><p>Dentro questo dispositivo c’è un piccolo processore progettato apposta per fare una cosa: <strong>eseguire modelli di intelligenza artificiale in modo veloce e senza consumare quasi nulla</strong>.</p><p>Non serve conoscere i dettagli tecnici, ma possiamo usare una metafora: immagina che il tuo computer sia un’automobile. Funziona bene, ma non è pensata per correre come una macchina da rally. Questa chiavetta è come aggiungere un motore elettrico che si attiva solo quando serve: non devi cambiare auto, ma improvvisamente puoi fare cose che prima erano impossibili.</p><p>Dal punto di vista pratico, ciò significa che molti calcoli necessari per far funzionare modelli linguistici, modelli visivi o di riconoscimento vocale non gravano più sul computer ospite ma vengono eseguiti direttamente sulla chiavetta. In questo modo il PC, o il portatile, rimangono reattivi, mentre l’AI lavora “a bordo” del dispositivo esterno.</p><p>Il dispositivo:</p><ul><li>è molto veloce nel fare calcoli (molto più di un normale processore);</li><li>consuma pochissima energia;</li><li>funziona con Windows, Linux e Android;</li><li>non richiede Internet;</li><li>può eseguire modelli AI già pronti (se forniti via software o framework compatibili).</li></ul><p>In pratica: <strong>colleghi la chiavetta e il tuo computer diventa capace di fare AI avanzata, anche offline</strong>.</p><h4>Per i nerd (cosa c’è dentro spiegato a chi ‘smanetta’)</h4><blockquote>ASUS UGen300 integra un processore AI Hailo‑10H capace di erogare fino a 40 TOPS in precisione INT4 (20 TOPS in INT8), specificamente ottimizzati per l’inferenza, affiancato da 8 GB di memoria LPDDR4 dedicata.</blockquote><blockquote>È progettato per funzionare con Windows, Linux e Android, sia su architetture x86 sia ARM, sfruttando una connessione USB 3.1 Gen 2 Type‑C fino a 10 Gbps. Il dispositivo supporta inoltre i principali framework di sviluppo AI come TensorFlow, PyTorch, Keras, TensorFlow Lite e ONNX, facilitando il riuso di modelli già esistenti.</blockquote><blockquote>Dal punto di vista energetico, l’acceleratore consuma tipicamente circa 2,5 watt, un valore estremamente contenuto rispetto a molte GPU dedicate, il che lo rende adatto anche a scenari di utilizzo continuativo o su notebook alimentati a batteria. Esiste anche una variante in formato M.2 pensata per essere integrata direttamente all’interno di sistemi compatti, ma il modello USB resta il più immediato per l’uso domestico e da ufficio.</blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FPg5hse3lfMs%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DPg5hse3lfMs&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FPg5hse3lfMs%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/c6f6667c5dfde4883dcbb42e205a8697/href">https://medium.com/media/c6f6667c5dfde4883dcbb42e205a8697/href</a></iframe><h4>Perché questa è una rivoluzione domestica</h4><p>La prima ondata dell’AI generativa è stata tutta nel cloud: servizi online, abbonamenti, piattaforme centralizzate. La seconda ondata, quella che stiamo iniziando a vedere, è invece <strong>personale</strong>.</p><p>Ricorda, in parte, il passaggio dai mainframe ai personal computer negli anni ’80: prima l’informatica era “là fuori”, poi è entrata nelle case. Oggi sta succedendo la stessa cosa con l’intelligenza artificiale.</p><p>E quando una tecnologia diventa personale, cambia tutto.</p><h3>Privacy, controllo, sovranità: l’AI che resta a casa tua</h3><p>Uno dei vantaggi più evidenti è la <strong>privacy</strong>. Se l’AI gira sul tuo computer, i tuoi dati possono restare sul tuo computer, senza essere inviati a servizi esterni. Niente documenti caricati online, niente conversazioni inviate a server remoti, niente rischi di esposizione involontaria.</p><p>Per molte categorie professionali questo è un cambio di paradigma. Tutti possono usare strumenti avanzati senza violare la riservatezza.</p><p>E poi c’è il tema della <strong>sovranità digitale</strong>: i tuoi dati restano tuoi, non vengono usati per addestrare modelli altrui, non finiscono in infrastrutture che non controlli.</p><h3>Cosa cambia per le persone</h3><p>Immagina uno studente universitario che deve preparare la tesi: invece di caricare capitoli e fonti su un servizio online, può tenerli tutti sul proprio portatile, collegare l’UGen300 e usare un modello locale per riassumere testi, trovare connessioni, proporre scalette. Tutto avviene in locale, senza dipendere dalla qualità del Wi‑Fi di casa o della biblioteca.</p><p>Lo stesso vale per chi crea contenuti: sottotitolare un video, generare descrizioni per le clip, estrarre i momenti salienti di una registrazione diventano operazioni gestibili sul proprio PC, ssenza caricare grandi quantità di dati su piattaforme esterne. Con un consumo di pochi watt, il dispositivo può restare collegato anche per sessioni di lavoro lunghe, senza preoccupazioni per la bolletta.</p><h3>Cosa cambia per le piccole imprese</h3><p>Per una piccola impresa o uno studio professionale, la combinazione tra UGen300 e software open‑source può diventare il primo passo verso un assistente interno davvero su misura. Si possono indicizzare documenti, manuali, FAQ e procedure, e poi interrogare il sistema con linguaggio naturale per trovare rapidamente informazioni, senza che i dati lascino l’ufficio.</p><p>In ambito retail o artigianale, lo stesso motore AI può essere usato per analizzare flussi video da telecamere, contare persone, rilevare eventi particolari o aiutare nella gestione del magazzino, utilizzando i modelli di visione già disponibili nell’ecosistema UGen. Il tutto con un costo iniziale contenuto e senza dover mettere mano a infrastrutture cloud complesse.</p><p>Per chi si occupa di consulenza o servizi digitali, avere un acceleratore AI tascabile significa anche poter portare con sé un piccolo laboratorio portatile: si collega al laptop del cliente, si caricano i dati necessari in locale e si mostra sul posto cosa può fare l’AI senza mai uscire dai confini della rete aziendale.</p><h3>Uno sguardo avanti</h3><p>Dopo il lancio avvenuto i primi giorni di Aprile 20026 ASUS ha annunciato una versione in formato M.2, <strong>pensata per essere integrata direttamente dentro computer o dispositivi specializzati</strong>. Nel frattempo, il software UGen offrirà più di 100 modelli di AI già pronti, segno che l’azienda non vuole solo vendere un gadget, ma creare un vero ecosistema attorno a questa tecnologia.</p><p>Guardando al quadro complessivo, il senso è chiaro: dopo aver portato l’AI nel browser, poi sul computer di casa con strumenti come Ollama, ora la stiamo infilando direttamente nella porta USB, rendendola sempre più personale, portatile e sotto il nostro controllo. Sarà interessante vedere quanti progetti nasceranno attorno a questi piccoli acceleratori e come cambierà il modo in cui pensiamo all’AI nella vita di tutti i giorni</p><h3>Un futuro più vicino di quanto sembri</h3><p>Se oggi una chiavetta USB può eseguire modelli linguistici, analizzare immagini e riconoscere la voce, cosa potrà fare tra due o tre anni? Probabilmente guarderemo a questi dispositivi come guardiamo oggi ai primi modem: piccoli oggetti che hanno aperto la strada a un cambiamento enorme.</p><p>L’AI sta diventando personale, domestica, quotidiana. E quando una tecnologia entra nelle case, non torna più indietro.</p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=bc484462b7a5" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/lai-diventa-tascabile-bc484462b7a5">L’AI diventa tascabile</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Dentro la scatola nera]]></title>
            <link>https://webeconoscenza.gigicogo.it/dentro-la-scatola-nera-85d8679207d4?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/85d8679207d4</guid>
            <category><![CDATA[large-language-models]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[llm]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[clickworker]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Tue, 31 Mar 2026 15:39:46 GMT</pubDate>
            <atom:updated>2026-03-31T15:39:45.201Z</atom:updated>
            <content:encoded><![CDATA[<h3>Dentro la scatola nera!</h3><h4>Lavoro tossico e mal pagato per addestrare l’Intelligenza Artificiale</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*phq35jlnuFZr8kduNKqPMA.png" /></figure><p>Immagina di parlare con una scatola. Buffo vero? Però è quello che succede quando interagisci con un chatbot di AI. Le fai una domanda, lei ti risponde.</p><p>Quella scatola è un <a href="https://it.wikipedia.org/wiki/Modello_linguistico_di_grandi_dimensioni"><strong>LLM</strong></a> (Large Language Model) e sebbene non sia possibile accedervi e consultare il contenuto interno, possiamo però comprenderne la sua struttura nonché le competenze dei professionisti coinvolti nel suo sviluppo.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FXsqf96oeFHk%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DXsqf96oeFHk&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FXsqf96oeFHk%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/0e96498b430ca36dc095c55b6f68ebe1/href">https://medium.com/media/0e96498b430ca36dc095c55b6f68ebe1/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Il flusso</h3><p><strong>1. Ingresso: le parole diventano numeri</strong></p><p>Il primo passaggio è quasi meccanico: il testo viene diviso in pezzetti (token) e trasformato in numeri. Questo processo è gestito dal <strong>tokenizer</strong>, che non “capisce” il linguaggio umano, ma lo converte in una forma elaborabile dal modello. <br>Senza questo passaggio non c’è alcun dialogo possibile fra uomo e macchina.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*pqcDJFoV2sMNujbyxzzDpw.png" /></figure><p><strong>2. Il cervello statistico</strong></p><p>Al centro di tutto c’è il <strong>transformer</strong>, una specie di macchina super esperta nel prevedere quali parole potrebbero seguire in una frase. <strong>Non capisce davvero il significato come farebbe una persona</strong>: non ha idee, emozioni o intenzioni.</p><p>In pratica, analizza la frase e <strong>indovina</strong> quale parola è più probabile che venga dopo, un po’ come quando finisci una frase che hai sentito mille volte. In realtà, è anche capace di usare il meccanismo di <strong>self-attention</strong>, che gli permette di <strong>pesare il contesto</strong> e indicare la parola successiva più coerente con lo stesso.</p><p>Tutto ciò che il modello “sa” è codificato nei suoi <strong>pesi</strong>: miliardi di valori numerici che rappresentano schemi e correlazioni apprese dai dati. Durante l’addestramento, infatti, <strong>il modello impara schemi e collegamenti tra le parole</strong>, e li comprime in questa gigantesca matrice di numeri. Ed è proprio da lì che tira fuori le sue risposte.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*g43tmbp_tsvdRi2U9w3fPA.png" /></figure><p><strong>3. L’allineamento: comportamento appreso (anche) attraverso ‘lavoro umano’</strong></p><p>L’allineamento è la fase in cui si cerca di ‘educare’ il modello a <strong>comportarsi bene</strong>. Non esiste un unico file di regole che gli dice cosa può o non può dire e/o generare: anche qui <strong>tutto finisce dentro i numeri che compongono il modello</strong> o, al massimo in <strong>sistemi esterni </strong>collegati allo stesso<strong> </strong>(politiche, filtri, system prompt).</p><p>Per ottenere un risultato eccellente serve però un lavoro molto concreto, <strong>fatto da persone in carne e ossa</strong>. Questo lavoro si svolge in due fasi distinte e sequenziali:</p><p>La prima si chiama <strong>SFT, ovvero Supervised Fine-Tuning</strong> (fine-tuning supervisionato): alcune persone <em>scrivono di proprio pugno</em> delle risposte esemplari, e il modello le studia per imparare a imitarle. <strong>È come mostrare a un apprendista come si fa un lavoro, esempio dopo esempio.</strong></p><p>La seconda fase è quella dell’<strong>RLHF, </strong>cioè<strong> Reinforcement Learning from Human Feedback</strong> (apprendimento per rinforzo basato sul feedback umano): qui il modello produce più versioni di una risposta, e <strong>persone reali </strong>le leggono, le confrontano e le giudicano: quale è più utile? quale è fuorviante? quale è inappropriata? <br><strong>Queste valutazioni servono ad addestrare un sistema di punteggio interno che, a sua volta, guida il modello verso risposte sempre migliori.</strong></p><p>Da questo esercizio non nasce un ‘<em>manuale</em>’ leggibile dall’esterno: <strong>le regole, le preferenze e i limiti vengono assorbiti nei suoi pesi, gli stessi numeri che determinano come risponde.</strong></p><p>È così che il modello impara a essere più utile, meno tossico, più sicuro: <strong>grazie a un lungo lavoro umano di valutazione e correzione</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*xBw_Y5DX08-i6GjX82SPXw.png" /></figure><p><strong>4. Uscita: i numeri tornano parole</strong></p><p>Alla fine i numeri vengono tradotti di nuovo in testo. È il percorso inverso: la scatola restituisce una frase che sembra naturale, <strong>ma dietro c’è una lunga catena di calcoli e decisioni umane</strong>.</p><p>Anche se i ricercatori sanno come è costruita la scatola, noi utenti non possiamo aprirla e leggere “il libro” che ha dentro: vediamo solo input e output. <strong>Per questo la chiamiamo scatola nera</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*Tnypf7SZrwLPX_SJ0xG7AQ.png" /></figure><h3>Il knowledge cut‑off</h3><blockquote>I modelli vengono addestrati su testi raccolti fino a una certa data: quella è la fotografia del mondo che conoscono. E questo è anche il motivo che spiega perché, a volte, un LLM sembra “fuori dal tempo”.</blockquote><p>Nel costruire questa scatola, infatti, gli sviluppatori hanno usato una montagna di testi (libri, siti, articoli). Ma li hanno scaricati (principalmente dal web) fino a una certa data e poi si sono fermati.<br>Quindi è proprio come se avessero fatto una <strong>fotografia del mondo in un certo momento</strong> e l’avessero compressa dentro la scatola nera.</p><ul><li>Quella data è chiamata: <strong>knowledge cut‑off</strong> e, dopo quel momento la scatola <strong>non ha più visto nuovi testi</strong> durante l’addestramento.</li><li>Se oggi succede qualcosa (una nuova legge, una guerra, una scoperta scientifica, la morte di un personaggio famoso), la scatola <strong>non lo sa</strong> a meno che non venga <strong>ri‑addestrata</strong> o <strong>collegata a fonti esterne</strong> (<a href="https://it.wikipedia.org/wiki/Retrieval_augmented_generation">RAG</a> o ricerca sul web). Anche se va detto che il <a href="https://it.wikipedia.org/wiki/Retrieval_augmented_generation">RAG</a> <strong>non risolve né aggiorna il knowledge cut-off</strong>: lo <strong>aggira</strong> per query specifiche, recuperando informazioni esterne al volo. <br>Il modello di base (e sottostante), purtroppo, rimane congelato alla sua data di taglio e fino a nuovo aggiornamento.</li></ul><p>Ma tutta questa montagna di testi non finisce nella scatola così com’è: <strong>deve essere pulita, etichettata, filtrata.</strong> E qui iniziano a comparire gli umani dietro le quinte.</p><h3>ll clickwork: la fabbrica invisibile che rifinisce la scatola</h3><p>Prima e dopo il lancio di un modello esiste una sorta di “fabbrica” fatta di micro-task: <strong>persone che puliscono dati, etichettano testi, valutano risposte e testano i limiti del sistema</strong>.</p><p>È un lavoro poco visibile ma essenziale per trasformare un modello grezzo in uno strumento utilizzabile.</p><h4>Cosa fanno, in pratica</h4><ul><li><strong>Pulizia dei dati</strong>: rimuovere spam, duplicati o contenuti problematici dai dataset;</li><li><strong>Etichettatura</strong>: classificare testi (ad esempio odio, ironia, richiesta tecnica);</li><li><strong>Valutazione</strong>: confrontare più risposte e indicare quali sono più utili o corrette;</li><li><strong>Red teaming</strong>: cercare attivamente di far fallire il modello per individuarne vulnerabilità.</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*98NsZhm5Ddg8eqXX3eun3w.png" /></figure><p>Queste attività intervengono in momenti diversi del ciclo di sviluppo, ma hanno un obiettivo comune: <strong>migliorare l’affidabilità del comportamento del modello</strong>.</p><p>Senza questo tipo di intervento umano, un LLM resterebbe molto più imprevedibile: <strong>tenderebbe più facilmente a inventare informazioni, amplificare stereotipi o produrre risposte poco appropriate</strong>.</p><p>Allo stesso tempo, è importante comprendere che le capacità linguistiche e gran parte della “conoscenza” del modello derivano dall’<strong>addestramento preliminare su larga scala</strong>, mentre il clickwork serve soprattutto a <strong>orientarne il comportamento</strong>, non a costruirlo da zero.</p><h4>Dove si trova questo lavoro</h4><p>Una parte di queste attività viene svolta attraverso piattaforme di microtask come <a href="https://www.mturk.com">Amazon Mechanical Turk</a>, <a href="https://www.appen.com">Appen</a> e <a href="https://www.clickworker.com">Clickworker</a>, che mettono in contatto aziende e lavoratori distribuiti a livello globale.</p><p>In altri casi, soprattutto per le fasi più sensibili (come l’allineamento avanzato), il lavoro è svolto da team specializzati o fornitori dedicati, spesso con competenze più elevate e linee guida più strutturate.</p><h4>Perché il clickwork è un problema etico e sociale</h4><p>Il funzionamento di questa “fabbrica” solleva diverse criticità documentate.</p><p><strong>Retribuzione e precarietà</strong><br>Secondo un’<a href="https://time.com/6247678/openai-chatgpt-kenya-workers/?utm_source=chatgpt.com">inchiesta di Time Magazine (2023)</a>, alcuni lavoratori impiegati nella moderazione di contenuti per l’addestramento di modelli linguistici guadagnavano circa <strong>1,32, </strong>max<strong> 2 dollari l’ora</strong> in Kenya. Si tratta di un caso documentato, non di una media globale, <strong>ma è indicativo delle condizioni in alcune filiere di data labeling</strong>.<br>Questi lavori sono spesso privi di tutele, con pagamenti variabili e forte dipendenza da pochi grandi clienti.</p><p><strong>Opacità sull’uso finale dei dati</strong><br>I lavoratori spesso <strong>non sanno per chi o per quale scopo stanno etichettando contenuti</strong>. Indagini giornalistiche e report accademici hanno evidenziato casi in cui dati raccolti per scopi civili sono stati riutilizzati in contesti sensibili, inclusi progetti governativi o militari.</p><p><strong>Carico emotivo</strong><br>Chi si occupa di moderazione può essere esposto a contenuti violenti o sessualmente espliciti. <a href="https://www.ilo.org/publications/digital-labour-platforms-and-future-work-towards-decent-work-online-world?utm_source=chatgpt.com">Studi pubblicati dall’International Labour Organization</a> evidenziano rischi concreti per la salute mentale dei lavoratori che operano nell’etichettatura dei dati.</p><p><strong>Bias e responsabilità</strong><br>Se i dati vengono etichettati in condizioni discutibili o con linee guida deboli, <strong>il modello può incorporare quei pregiudizi</strong>. Questo apre un problema di responsabilità: <strong>chi risponde delle scelte fatte “a monte”?</strong></p><h4>Manutenzione e riparazioni: la fabbrica non chiude mai</h4><p>Una volta messa in commercio, la scatola nera non è “finita”. Continua a produrre errori, risposte problematiche o contenuti imprecisi.</p><p>A quel punto si torna in fabbrica.</p><ul><li><strong>Campagne di red teaming</strong>: persone reali cercano di far fallire il modello (odio, truffe, manipolazione) per individuare punti deboli;</li><li><strong>Nuove ondate di valutazione</strong>: cicli continui di confronto tra risposte (“quale è migliore?”);</li><li><strong>Aggiornamenti di versione</strong>: ogni nuova release incorpora correzioni, dati e ulteriore lavoro umano.</li></ul><h4>Addestramento “riparatore” (e perché non è continuo)</h4><p>Quando si parla di addestramento dei modelli, c’è un equivoco che torna spesso: l’idea che la “scatola nera” impari in tempo reale da ogni conversazione. In realtà non funziona così. Ogni modello è una fotografia congelata di ciò che ha appreso fino a un certo momento, <strong>il famoso ‘<em>knowledge cut‑off’ </em>di cui sopra</strong>. Da lì in poi non aggiorna più nulla da solo.</p><p>Quello che succede davvero è molto più simile a un <strong>processo industriale </strong>che a un apprendimento spontaneo. Le aziende raccolgono grandi quantità di dati (<strong>e sì, anche le interazioni degli utenti possono rientrare nel materiale grezzo</strong>). Poi arriva la fase di filtraggio e valutazione, spesso fatta da esseri umani che selezionano, correggono, annotano. Solo dopo questo lavoro di preparazione i dati vengono usati per addestrare una nuova versione del modello.</p><p>È per questo che non si può parlare di apprendimento continuo “in diretta”. Non c’è un modello che evolve mentre parli con lui: <strong>ci sono cicli successivi, ciascuno dei quali produce una nuova generazione</strong>. È un processo a tappe, non un flusso ininterrotto.</p><p>In pratica, tutto parte da un addestramento iniziale enorme, costruito su dataset vastissimi e su un lavoro umano altrettanto imponente. Poi arrivano i cicli di addestramento “riparatore”, pensati per correggere errori, ridurre rischi, migliorare comportamenti indesiderati. E infine c’è l’aggiornamento di filiera: non è il singolo modello che cresce, ma l’intera linea produttiva che viene raffinata, versione dopo versione.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*PTn8mjkKev1DGLcLl7rU9w.png" /></figure><h4>Vigilanza: segnali da non ignorare</h4><p>Alcuni indicatori aiutano a riconoscere pratiche discutibili. L’assenza di informazioni chiare su compensi e tempi è un segnale d’allarme, così come la mancanza di supporto psicologico per chi modera contenuti. Anche contratti opachi sull’uso dei dati e una forte dipendenza da pochi grandi clienti sono elementi da tenere in considerazione.</p><h4>Cosa possiamo fare noi?</h4><ul><li><strong>Pretendere trasparenza</strong>: chiedere come sono raccolti e annotati i dati;</li><li><strong>Valutare i fornitori</strong>: verificare politiche di fair pay e condizioni di lavoro.</li></ul><p>Ad esempio, Appen dichiara di adottare logiche di “fair pay”, ma inchieste giornalistiche e testimonianze dei lavoratori mostrano una realtà più sfumata e, in alcuni casi, problematica.</p><h3>Conclusione</h3><p>Il punto non è demonizzare il clickwork, ma renderlo visibile:<br>gli LLM non sono solo prodotti tecnologici, sono anche <strong>il risultato di una filiera globale di lavoro umano, spesso invisibile</strong>.</p><p>Capire questa filiera aiuta a capire meglio anche i limiti (e le responsabilità) di ciò che chiamiamo Intelligenza Artificiale.</p><p>La scatola nera non è solo un pezzo di tecnologia: <strong>è una catena di persone, contratti e scelte economiche</strong>. <br>Quando usi un assistente virtuale, dietro la risposta c’è qualcuno che ha etichettato, moderato o valutato dati per permettere a quella frase di uscire pulita.</p><p>Capire questa catena significa capire che l’IA non è neutrale: <strong>è il risultato di scelte tecniche, economiche e umane. E quindi può essere messa in discussione.</strong></p><h3><strong>LINKOGRAFIA</strong></h3><h4>1. Meta, Ray‑Ban smart glasses e Sama (Kenya)</h4><ul><li><strong>Titolo:</strong> Meta nega il trasferimento dei dati degli utenti europei in Kenya ma l’autorità irlandese aveva già aperto un’istruttoria</li><li><strong>Testata:</strong> ByteLegali</li><li><strong>Autrice:</strong> Giulia Iaganà</li><li><strong>Data:</strong> 23 marzo 2026 (indicata nel sito come data dell’articolo; il contenuto è aggiornato a marzo 2026)</li><li><strong>URL ufficiale: </strong><a href="https://www.bytelegali.it/meta-nega-il-trasferimento-dei-dati-degli-utenti-europei-in-kenya-ma-lautorita-irlandese-aveva-gia-aperto-unistruttoria/">https://www.bytelegali.it/meta-nega-il-trasferimento-dei-dati-degli-utenti-europei-in-kenya-ma-lautorita-irlandese-aveva-gia-aperto-unistruttoria/</a></li></ul><p><strong>Focus:</strong></p><ul><li>Ricostruisce come due quotidiani svedesi (Svenska Dagbladet e Göteborgs‑Posten) abbiano documentato l’invio di video raccolti dai Ray‑Ban smart glasses di Meta a Sama, società di annotazione dati con sede operativa a Nairobi.</li><li>Descrive in dettaglio il lavoro dei labelers di Sama: classificazione di contenuti video altamente sensibili (scene domestiche intime, conversazioni private, dati bancari) per migliorare i sistemi di IA di Meta, con compensi tra 1,32 e 2 dollari l’ora.</li><li>Collega il caso a precedenti collaborazioni di Sama con OpenAI per l’etichettatura di testi violenti e di abuso e inquadra il tema nei vincoli del GDPR sui trasferimenti di dati verso Paesi senza decisione di adeguatezza (come il Kenya).</li></ul><h3>2. Etica dell’addestramento IA e lavoro nei centri di annotazione</h3><ul><li><strong>Titolo:</strong> L’addestramento dell’IA non può prescindere dall’etica</li><li><strong>Testata:</strong> Terza Notizia (sezione AI)</li><li><strong>Data:</strong> 8 marzo 2026terzanotizia+1</li><li><strong>URL ufficiale: </strong><a href="https://terzanotizia.it/laddestramento-dellia-non-puo-prescindere-dalletica">https://terzanotizia.it/laddestramento-dellia-non-puo-prescindere-dalletica</a></li></ul><p><strong>Focus:</strong></p><ul><li>Parte dal tema del diritto d’autore e del training su dataset illeciti, ma dedica un’intera sezione alle condizioni dei lavoratori nei centri di annotazione dati nel Sud del mondo, riprendendo un’approfondita inchiesta del Guardian.</li><li>Descrive operatori in Kenya e Uganda pagati poco più di un dollaro l’ora per etichettare video violenti o immagini disturbanti, necessari per “addestrare” i filtri di sicurezza delle grandi piattaforme di IA, definendoli “carburante essenziale ma invisibile della rivoluzione tecnologica”.</li><li>Sottolinea che un addestramento etico dell’IA deve includere trasparenza sulle catene di subappalto e tutela della dignità dei lavoratori del data labeling, non solo il rispetto della proprietà intellettuale sui dati usati.</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*zkRPmKZF2fx38O2vFqZ1ZA.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=85d8679207d4" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/dentro-la-scatola-nera-85d8679207d4">Dentro la scatola nera</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[La funzione ‘computer’ di Perplexity]]></title>
            <link>https://webeconoscenza.gigicogo.it/la-funzione-computer-di-perplexity-fc9a84825056?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/fc9a84825056</guid>
            <category><![CDATA[claude]]></category>
            <category><![CDATA[agentic-ai]]></category>
            <category><![CDATA[ia-agentic]]></category>
            <category><![CDATA[perplexity]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Thu, 26 Mar 2026 20:08:17 GMT</pubDate>
            <atom:updated>2026-03-26T20:08:15.890Z</atom:updated>
            <content:encoded><![CDATA[<h4>Quando l’AI smette di chiacchierare e inizia a lavorare davvero</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*KATtlPpX4yLi_ApCN1NTIA.png" /></figure><p>Stiamo entrando nell’era degli <strong>Agenti AI</strong> personali: sistemi che non si limitano a rispondere alle tue domande, ma prendono in mano il tuo contesto digitale (file, app, schermo, calendario) e agiscono per te. <br>Non sono più chatbot passivi. Ricevono un obiettivo (“<em>organizzami la giornata</em>”, “<em>analizza queste vendite”, “trova quel documento”</em>), pianificano i passi, usano strumenti e ti restituiscono risultati concreti, spesso mentre tu fai altro.</p><p>È l’AI agentica applicata alla vita quotidiana, e alcuni player ne stanno definendo il campo in modo molto interessante. Tra questi, tre nomi meritano secondo me un’attenzione particolare: <strong>Perplexity</strong> con la sua funzione ‘Computer’, <strong>Claude</strong> di Anthropic con computer usage, e <strong>Littlebird</strong>.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2Fsktvbro3rB8%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3Dsktvbro3rB8&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2Fsktvbro3rB8%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/5f3a1606f8096c12ac22e1322e901584/href">https://medium.com/media/5f3a1606f8096c12ac22e1322e901584/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Tre approcci, tre filosofie</h3><p><strong>Perplexity Computer</strong> (e il suo “fratello” <a href="https://www.perplexity.ai/it/hub/blog/everything-is-computer">Personal Computer su Mac mini</a>) punta decisamente sul cloud come quartier generale sicuro: un sistema di agenti che lavora in ambianti isolati (‘sandbox’), orchestrando ricerca web, analisi dei dati, codice informatico e file (nelle sue attuali capacità), senza accedere direttamente al tuo Personal computer. Tu dici “<em>fammi un report sulle vendite con grafici</em>”, e il sistema scompone il compito in compito, <strong>lo esegue in un ambiente protetto</strong> e ti consegna dei file formattati in CSV, immagini e intuizioni/previsioni. Tutto verificato, in molti casi affidabile, senza permessi invasivi sul tuo hardware.</p><p><strong>Claude</strong>, invece, è il <a href="https://claude.com/blog/dispatch-and-computer-use">pilota audace</a>: può interagire con il tuo Personal Computer, muove mouse e tastiera come farebbe un umano, naviga tra le app, clicca e modifica file in tempo reale. Può essere molto potente per compiti imprevedibili (“<em>apri Photoshop e ritocca questa foto</em>”), ma richiede fiducia totale: l’AI ha le chiavi di casa, e <strong>un errore può significare file cancellati o clic sbagliati</strong>.</p><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FNAauIR6JFps%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DNAauIR6JFps&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FNAauIR6JFps%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/5f4546d3b282c3519597bcb3721e9c58/href">https://medium.com/media/5f4546d3b282c3519597bcb3721e9c58/href</a></iframe><p><a href="https://littlebird.ai"><strong>Littlebird</strong></a> sperimenta un approccio basato su memoria estesa: può osservare e indicizzare molte delle attività sul Personal Computer ( schermate, documenti, call) indicizza tutto in cloud e diventa un assistente proattivo che “sa già tutto”. Ti recapita briefing mattutini, trova email di mesi fa, suggerisce priorità. Il rovescio della medaglia è evidente: indicizzare continuamente il tuo lavoro <strong>solleva domande serie su privacy e controllo</strong>.</p><h3>Il Mac mini come hub di questo ecosistema</h3><p>Il Mac mini sta diventando una scelta popolare tra gli <strong>entusiasti early adopter dell’AI agentica personale</strong>, e non è un caso. Tre motivi si incastrano alla perfezione con questo nuovo paradigma.</p><p>Il primo è l’hardware (come gli ultimi Apple Silicon disponibili): molto efficiente per l’inferenza AI locale, efficiente, silenzioso, con un consumo energetico ridicolo rispetto a PC equivalenti e ideale per far girare agenti 24/7 senza bollette folli o ventole impazzite. Il secondo è la maturità del sistema operativo MacOS come piattaforma di automazione: AppleScript, Shortcuts, accesso nativo alle integrazioni con iPhone e iPad lo rendono “agent-ready” senza configurazioni complicate. Il terzo, non meno importante, è il prezzo: a partire da 599€, è un affare per un dispositivo senza monitor che puoi nascondere sotto la scrivania e controllare via rete. Non sorprende che strumenti come il tanto discusso <a href="https://openclaw.ai">OpenClaw</a> e <a href="https://www.perplexity.ai/it/hub/blog/everything-is-computer">Perplexity Personal Computer</a> stiano aumentando l’interesse verso questo tipo di soluzione. <strong>È il gadget perfetto per chi vuole un agente AI personale</strong> senza investire in un MacBook Pro da 3.000€.</p><h3>Perché partire da Perplexity Computer è la scelta più saggia</h3><p>Tra questi approcci, la funzione ‘<em>Computer</em>’ di Perplexity insita nel chatbot con la funzione PRO e MAX e da non confondersi <a href="https://www.perplexity.ai/it/hub/blog/everything-is-computer">Perplexity Personal Computer</a>, è quella che ti consiglio di esplorare per prima, soprattutto se vuoi entrare nell’AI agentica senza buttarti a capofitto e comprare dell’hardware!</p><p>Il motivo principale è la prudenza strutturale: tutto gira in ambienti cloud isolati, con sandbox che riducono drasticamente i rischi. <strong>Non tocca il tuo Mac, non ha bisogno di permessi di sistema, non può combinare guai sul tuo desktop.</strong> Puoi supervisionare i passaggi principali, vedi i risultati intermedi (grafici, tabelle, file) e decidi se e come andare avanti. È una collaborazione più controllata rispetto ad altri approcci, non una delega cieca.</p><p><a href="https://claude.com/blog/dispatch-and-computer-use">Claude</a> e <a href="https://littlebird.ai">Littlebird</a> sono strumenti potenti, ma saltano la fase “impara a camminare”: ti chiedono di affidargli chiavi e memoria fin dal giorno uno. Con ‘<em>Computer’ di Perplexity</em>, invece, puoi <strong>iniziare dalle basi agentiche</strong> (analisi dati, workflow complessi, automazioni) restando sempre al volante. È come avere un assistente che lavora in un laboratorio separato, non uno che si siede alla tua scrivania o ti spia 24/7. E una volta prese le misure con questo approccio “sicuro”, potrai esplorare i piloti più invasivi <strong>sapendo esattamente cosa delegare e cosa no</strong>.</p><h3>Perché questa funzione è un salto di categoria</h3><p>Prova a pensarla così: esistono due tipi di AI.</p><p><strong>La prima sa solo chiacchierare</strong>. Fa brainstorming, riscrive testi, ti aiuta con le idee. <strong>Utilissimo, ma tutto resta nel mondo delle parole</strong>.</p><p><strong>La seconda, oltre a chiacchierare, ha un “computer interno”</strong> su cui può scrivere codice, aprire file, fare calcoli, creare grafici, salvare documenti. Tu le dici: “<em>Qui c’è il CSV con le vendite di quest’anno, fammi capire cosa sta succedendo</em>”, e lei non ti risponde con una teoria generica. Apre il file, lo analizza, si accorge che a marzo c’è stato un crollo, te lo mostra in un grafico e ti spiega cosa ha trovato.</p><p>È la differenza tra <em>“Parliamo in generale di newsletter efficaci…”</em> e <em>“Guardo i tuoi invii dell’ultimo anno, ti dico in che giorni hai avuto più aperture e ti suggerisco di cambiare orario.”</em></p><p>In mezzo ci sta la funzione ‘<em>Computer</em>’ di Perplexity: <strong>il laboratorio dove l’AI passa dalla teoria alla pratica</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/750/1*tc1PXAIgOqyIrMmLc2yCxg.jpeg" /><figcaption>Image <a href="https://www.eesel.ai/blog/perplexity-computer">credits</a></figcaption></figure><h3>Come funziona, senza tecnicismi</h3><p>Il bello è che non devi saper programmare. A scrivere il codice ci pensa l’AI. Tu fai ciò che sai fare meglio: racconti il problema in linguaggio umano.</p><p>Per esempio: <em>“Ho questo file con tutti gli invii della newsletter. Vorrei capire quali oggetti hanno funzionato meglio, in quali giorni ho il tasso di apertura più alto, se c’è un orario che batte gli altri.”</em></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/871/1*AbTVcady3ZtrZW4LKc8vqA.png" /></figure><p>Dietro le quinte, spesso nel giro di pochi secondi, tipicamente succede questo:</p><ol><li>L’AI legge la tua richiesta e scrive qualche riga di codice Python.</li><li>Lancia quel codice in un ambiente sicuro e isolato, dove non può fare danni.</li><li>Guarda l’output: se ci sono errori, corregge e riprova; se i risultati hanno senso, li organizza e te li mostra (anche se può richiedere aggiustamenti).</li><li>Torna da te con una risposta che non è più solo “un’opinione”, ma è basata sui tuoi dati.</li></ol><p>Da fuori vedi solo il risultato: tabelle, grafici, una spiegazione. Se non ti convince, puoi chiedere: “<em>Mostrami solo i 10 oggetti migliori</em>” o “<em>Concentrati sugli invii dell’ultimo trimestre</em>”. Lei modifica il codice, ricalcola e ti restituisce una nuova versione. È una conversazione, ma con un motore di calcolo agganciato sotto.</p><h3>Tre scenari concreti</h3><h4>Il blogger con la newsletter</h4><p>Hai una newsletter e, come tutti, ti chiedi: quando la devo mandare? Quali oggetti funzionano? Sto esagerando con la frequenza?</p><p>Di solito ti limiteresti a guardare un paio di grafici nella piattaforma e poi andare a istinto. Con Computer, il film è diverso. Scarichi il file con tutti gli invii dell’ultimo anno (date, oggetti, open rate, click, segmenti) lo carichi e scrivi:</p><p><em>“Analizza questi dati e dimmi: quali giorni della settimana hanno il tasso di apertura più alto, quali sono gli oggetti migliori, se ci sono orari da evitare.”</em></p><p>Nel giro di pochi secondi (o qualche iterazione) l’AI passa in rassegna riga per riga, raggruppa per giorno della settimana, ordina gli oggetti per click e costruisce grafici grafici utili da interpretare. E poi, soprattutto, te li racconta: <em>“Il mercoledì mattina le performance sono costantemente migliori del lunedì pomeriggio. I soggetti sotto i 40 caratteri tendono ad avere un tasso di apertura più alto. Le email inviate dopo le 21 performano peggio.”</em></p><p>Non hai solo “un parere dell’AI”: hai un mini report sui tuoi numeri, pronto per diventare un articolo dal titolo: <em>“Come ho usato l’AI per migliorare del 15% l’open rate della mia newsletter.”</em></p><h4>Il piccolo e-commerce</h4><p>Cambia contesto. Hai un e-commerce con qualche decina di prodotti. Intuisci che alcuni vanno alla grande e altri sono un buco nero, ma non hai tempo di mettere mano a pivot e formule.</p><p>Esporti un file con dodici mesi di vendite (prodotto, quantità, fatturato, resi, margine) e scrivi:</p><p><em>“Voglio capire: quali sono i prodotti che mi fanno davvero guadagnare, non solo fatturare; quali vendono tanto ma vengono restituiti spesso; se ci sono prodotti che potrei tranquillamente togliere dal catalogo.”</em></p><p>L’AI può fare parte del lavoro che farebbe un analista: calcola il fatturato per prodotto, incrocia fatturato e margine, evidenzia i resi. Alla fine ti mostra una mappa: da una parte i “campioni nascosti” (margini altissimi, pochi resi), dall’altra le “stelle tossiche” (vendono molto ma mangiano profitti e reputazione). Materiale utile per supportare decisioni di business e, se vuoi, per scrivere un pezzo divulgativo su come un non-analista ha preso decisioni data-driven grazie all’AI.</p><h4>L’insegnante con il suo “assistente analista”</h4><p>Immagina un insegnante che fa spesso quiz agli studenti. Ogni volta raccoglie risposte, punteggi, tempi. Tutto rimane lì, in qualche file semi-illeggibile.</p><p>Con ‘<em>Computer’</em>, la scena cambia. Carica il file e dice:</p><p><em>“Dimmi quali domande sono risultate troppo facili, quali troppo difficili e quali sono perfette per valutare la comprensione. Mostrami anche, per ogni studente, se c’è stata una progressione nel tempo.”</em></p><p>L’AI calcola le percentuali di risposte corrette per domanda, guarda i tempi medi, individua pattern — domande trabocchetto, argomenti non capiti, lacune ricorrenti. Alla fine, l’insegnante ha una prima diagnosi che prima avrebbe richiesto ore di lavoro manuale.</p><h3>Non servono superpoteri, servono domande chiare</h3><p>La parte più interessante, per chi scrive, è proprio questa: non è solo un gioco per programmatori. È un gioco per persone che sanno formulare problemi.</p><p>Non devi spiegare all’AI come calcolare una media pesata. Devi dirle cosa ti interessa davvero:</p><ul><li><em>“Vorrei vedere a colpo d’occhio quali contenuti generano più iscrizioni.”</em></li><li><em>“Mi interessa capire se sto stressando troppo la lista con troppi invii.”</em></li><li><em>“Vorrei sapere se ci sono giorni in cui il mio e-commerce è praticamente morto.”</em></li></ul><p>Da lì in poi, gestisce gran parte del lavoro con codice, grafici e file. Tu resti nel tuo ruolo: fai domande sensate, interpreti le risposte e le trasformi in storie, decisioni, contenuti.</p><h3>Cosa ci aspetta</h3><p>Il campo degli agenti AI personali sta bollendo, e Perplexity Computer è solo uno dei giocatori in pista. Ci sono già player come <a href="https://manus.im">Manus</a> con il suo approccio da “terminale autonomo”, o progetti open source come <a href="https://openclaw.ai">OpenClaw</a>, che può girare 24/7 su Mac mini e ti manda aggiornamenti mattutini via Telegram mentre sei a colazione.</p><p>Tutti questi esperimenti urlano la stessa cosa: <strong>il tuo computer non è più solo un’estensione delle tue mani, ma un laboratorio dove l’AI prova a rubarti i compiti noiosi </strong>(organizzare foto, rinominare fatture, monitorare email) riducendo molto l’intervento manuale.</p><p>Tra qualche anno, è probabile che questi agenti inizieranno a parlarsi tra loro: Perplexity che passa un dataset a uno strumento di automazione locale, Littlebird che condivide la tua memoria contestuale con Claude per eseguire un compito preciso, potenzialmente orchestrato da un “super-agente” che vive nel cloud e decide chi fa cosa. O flotte di Mac mini trasformati in “nodini AI” domestici: uno per la produttività, uno che analizza i tuoi dati Apple Watch, uno che gestisce la domotica.<br>A proposito, le offerte su server virtuali in rete, già ci sono anche in Italia:</p><p><a href="https://www.cloud.it/vps/openclaw/">VPS con OpenClaw Preinstallato | Agente AI Self-Hosted sul Tuo VPS | Cloud</a></p><p><strong>Ma più l’automazione diventa sofisticata, più vale la pena partire con i piedi per terra</strong>. Questi sviluppi promettono un mondo dove l’AI ti sveglia con un briefing perfetto e chiude la giornata con un report. Ma senza un minimo di approccio prudente come quello di Computer (sandbox, supervisione, zero invasioni), rischi di ritrovarti con un assistente che sa molto, fa molto e può sbagliare proprio dove conta.</p><p>L’occasione per testare è adesso, prima che il futuro ci travolga tutti.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*vHs2xGGSjtaYpSl5KNgO8Q.jpeg" /></figure><h3>Dalla chiacchiera al risultato</h3><p>Se dovessimo riassumere tutto in una frase sola:</p><blockquote>Prima l’AI era un ottimo conversatore. Con la funzione ‘Computer’ diventa un collaboratore che lavora sui tuoi dati e ti mette sul tavolo qualcosa di tangibile.</blockquote><p>Per un blogger o un creator non è un dettaglio tecnico: è un tema narrativo enorme. Significa poter raccontare casi reali, usare i propri numeri come trama, portare i lettori dentro un “dietro le quinte” dove l’AI non è più magia generica, ma uno strumento da laboratorio.</p><p>Tu gli dai il contesto, lei fa i conti. E quello, per chi scrive, è oro: <strong>perché ogni analisi diventa una storia da raccontare.</strong></p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=fc9a84825056" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/la-funzione-computer-di-perplexity-fc9a84825056">La funzione ‘computer’ di Perplexity</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Come bloccare l’uso dei nostri dati per allenare l’Intelligenza Artificiale]]></title>
            <link>https://webeconoscenza.gigicogo.it/come-bloccare-luso-dei-nostri-dati-per-allenare-l-intelligenza-artificiale-19cf0ac290a7?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/19cf0ac290a7</guid>
            <category><![CDATA[bots]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[dati-personali]]></category>
            <category><![CDATA[privacy]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Wed, 18 Mar 2026 20:13:42 GMT</pubDate>
            <atom:updated>2026-03-18T20:54:55.120Z</atom:updated>
            <content:encoded><![CDATA[<h3>I tuoi dati non sono un buffet: come negare il “consenso” all’IA</h3><h4>Una guida pratica per riprendersi la privacy tra ChatGPT, Social e programmi creativi.</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*u1SrVRvcRi_58u5gFQTv2A.jpeg" /></figure><p>Nell’ambito della mia attività di consulenza e formazione trascorro una quantità significativa di tempo al computer, soprattutto on‑line. Per questo, non posso nascondere un certo disagio all’idea che tutto il materiale che pubblico, dai contributi divulgativi ai commenti nei vari spazi social, <strong>potrebbe essere incluso nei dataset pubblici utilizzati per addestrare modelli come ChatGPT</strong>.</p><p>Questa sensazione si inserisce in una riflessione più ampia: la promessa originaria di Internet sembra essersi incrinata. <br>Quello che era nato come uno spazio di libertà creativa e partecipazione democratica si è progressivamente trasformato in <strong>un’enorme arena governata da logiche commerciali sempre più aggressive</strong>.</p><p>Oggi ogni nostra azione online (informarci, comunicare, stringere relazioni o fare acquisti), contribuisce ad alimentare un ecosistema che arricchisce pochi attori dominanti e, al tempo stesso, riduce il margine di autonomia degli utenti. <br><strong>Non è un giudizio morale, ma un dato strutturale che merita di essere compreso per poter immaginare alternative più eque e consapevoli.</strong></p><p>In questo scenario, purtroppo, le possibilità di intervento a posteriori sono piuttosto limitate. La normativa attuale tende infatti a privilegiare la tutela delle aziende rispetto a quella degli utenti, con il risultato che gran parte dell’onere della “protezione” ricade proprio su chi utilizza i servizi digitali. È una dinamica che si inserisce perfettamente nel quadro già descritto: <strong>un ecosistema in cui la responsabilità individuale diventa l’unico vero argine a pratiche ormai consolidate</strong>.</p><p>Per questo motivo diventa fondamentale adottare un approccio <strong>proattivo e consapevole</strong>. Gli utenti hanno la possibilità di esprimere il proprio dissenso rispetto alla condivisione dei dati e all’uso delle loro attività online per l’addestramento dei modelli di Intelligenza Artificiale.</p><p><strong>È importante chiarire che l’esercizio del <em>diritto di opposizione</em> non elimina i dati già raccolti</strong>, ma può impedire che le interazioni future (conversazioni, ricerche, contenuti creativi) vengano inglobate nei dataset dei nuovi sistemi.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fopen.spotify.com%2Fembed%2Fepisode%2F5tXVodhJgyq0Y4SWGqqQte%2Fvideo%3Futm_source%3Doembed&amp;display_name=Spotify&amp;url=https%3A%2F%2Fopen.spotify.com%2Fepisode%2F5tXVodhJgyq0Y4SWGqqQte&amp;image=https%3A%2F%2Fimage-cdn-fa.spotifycdn.com%2Fimage%2Fab6772ab000015be1d399bc90f785c113b278224&amp;type=text%2Fhtml&amp;schema=spotify" width="624" height="351" frameborder="0" scrolling="no"><a href="https://medium.com/media/c91325d2054826bed7b114474658c8b2/href">https://medium.com/media/c91325d2054826bed7b114474658c8b2/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Cosa significa veramente “rinunciare”?</h3><h4>Vale solo per il futuro</h4><p>Al fine di valutare la convenienza di questa azione, è necessario innanzitutto comprendere la natura dei dati raccolti. In sostanza, si possono distinguere due categorie principali di dati:</p><ol><li><strong>I nostri dati personali:</strong> nome, email, le domande che fai alla IA, le immagini che carichiamo, le informazioni sensibili (es. dati sanitari, questioni riservate, dubbi lavorativi).</li><li><strong>Il nostro lavoro creativo:</strong> quello che abbiamo scritto, disegnato, creato o generato.</li></ol><p>La brutta notizia è che impedire ai “bot” delle aziende di prendere il nostro lavoro creativo dal web è quasi impossibile. Se lo carichiamo su Internet (che sia un blog, un account Instagram pubblico o un sito web), è molto probabile che sia già finito o finirà nei loro archivi.</p><p>Il file <strong>robots.txt</strong> è uno strumento utile ma non infallibile: <strong>alcuni operatori e crawler rispettano le direttive</strong>, mentre altri scraper o bot specializzati per l’addestramento IA possono ignorarle o raccogliere contenuti da fonti alternative; per questo non è una protezione completa.”</p><p><a href="https://it.wikipedia.org/wiki/Protocollo_di_esclusione_robot">Protocollo di esclusione robot - Wikipedia</a></p><p>L’opt‑out <strong>si applica principalmente ai dati generati dopo l’attivazione</strong>: può impedire che le interazioni future vengano usate per training, ma non garantisce la rimozione o l’eliminazione di dati già incorporati nei dataset o nei modelli. Serve a dire: “<em>Questa chat tra me e te, non la puoi usare per imparare</em>”. <br>Le politiche di conservazione variano: <strong>alcuni provider conservano conversazioni per periodi che possono arrivare a mesi o anni</strong> e in certi casi porzioni di dati sono soggette a revisione umana; verifica sempre la policy ufficiale del servizio per le tempistiche precise.</p><h3>I tre giganti: ChatGPT, Gemini e Claude</h3><p>Un punto di partenza importante: <strong>anche se ti fidi di questi strumenti, evita comunque di condividere informazioni troppo sensibili o segreti personali</strong>, anche dopo aver disattivato la raccolta dati. L’opt‑out aiuta, ma non è una garanzia assoluta.</p><h4><strong>CHATGPT</strong></h4><p>Per gestire la privacy, clicca sulla tua immagine profilo e vai su <strong>Impostazioni → Controllo dati</strong>. Qui trovi l’opzione <strong>“Migliora il modello per tutti”</strong>: spegnendola, le chat future non verranno usate per l’addestramento. Puoi anche attivare le <strong>Chat temporanee</strong>, che funzionano come conversazioni “usa e getta”.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/925/1*XIR1RWFCM7BRUR7uCzwHvQ.png" /></figure><p>Ci sono però due aspetti da tenere a mente: se metti <strong>pollice su o pollice giù</strong> a una risposta, <strong>l’intera conversazione può essere usata per l’addestramento</strong>, anche se hai disattivato l’opzione;<br>ChatGPT conserva comunque per un periodo limitato tutte le chat per motivi di sicurezza e prevenzione degli abusi.</p><p><a href="https://help.openai.com/en/articles/8983778-chat-and-file-retention-policies-in-chatgpt?utm_source=copilot.com">Chat and File Retention Policies in ChatGPT | OpenAI Help Center</a></p><h4><strong>GEMINI</strong></h4><p>Per limitare l’uso dei tuoi dati, vai su <strong>Impostazioni e Guida → Attività</strong>, poi scegli <strong>Disattiva</strong> per “Salva attività”. Così le nuove chat verranno conservate solo per <strong>72 ore</strong>, giusto il tempo di rivederle, ma <strong>non saranno usate per addestrare il modello</strong>. Nella stessa pagina puoi anche cancellare la tua attività passata.<br>Nota importante: le conversazioni più vecchie che erano già state selezionate per revisione umana possono essere conservate <strong>fino a 3 anni</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/737/1*zLCpzQn3yzTSL0_0gk2KMQ.png" /></figure><p><strong>CLAUDE</strong></p><p>Claude utilizza le conversazioni di qualsiasi tipo per migliorarsi, incluse quelle tecniche, creative e di uso quotidiano. Per fermarlo, clicca sulla tua immagine profilo, vai su <strong>Impostazioni → Privacy</strong> e disattiva <strong>“Aiuta a migliorare Claude”</strong>.</p><p>Qui c’è una differenza significativa rispetto agli altri: <strong>una volta disattivata l’opzione, Claude non userà le tue conversazioni future per l’addestramento</strong>. Attenzione: i dati già elaborati durante il periodo di opt-in non possono essere rimossi retroattivamente da training già avvenuto. Con l’opt-out attivo, i tuoi dati vengono conservati per 30 giorni; <strong>senza opt-out, la conservazione può arrivare fino a cinque anni</strong>. È un punto di trasparenza importante, soprattutto se confrontato con la politica di Gemini sulle revisioni umane.</p><p>Se vuoi essere ancora più prudente, puoi anche <strong>cancellare singole chat</strong>. Attenzione però: come negli altri servizi, se metti “mi piace” o “non mi piace” a una risposta, <strong>l’intera conversazione può essere salvata e usata</strong>, indipendentemente dalle impostazioni.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/946/1*igBwWzQVkTVZ_d-onl5iEw.png" /></figure><h3>Esempio di “Safe Prompting”</h3><p>Quando devi far analizzare contenuti sensibili, è meglio <strong>astrarre e generalizzare</strong>. Invece di scrivere: “<em>Analizza questo bilancio aziendale segreto di Rossi Srl</em>” puoi usare una formula più sicura:</p><blockquote><em>“</em>Analizza questa struttura di bilancio generica, sostituendo i nomi reali con Azienda X e i valori con cifre arrotondate<em>.”</em></blockquote><h3>Stessi principi anche per i programmi “creativi”: Adobe e Canva, Figma, ecc.</h3><p>Occhio: <strong>non sono solo le chat a “imparare” dal tuo lavoro</strong>. Quando carichi progetti, immagini o bozze su servizi come <strong>Adobe, Figma o Canva</strong>, quei contenuti possono finire — in modi diversi — nell’ecosistema che serve a migliorare le loro funzioni IA. Per esempio, <strong>Adobe ha addestrato i modelli Firefly anche su contenuti di Adobe Stock</strong> e ha introdotto misure per compensare i contributor; questo significa che caricare su Stock può implicare l’uso del tuo materiale per generative AI.</p><p>Con <strong>Creative Cloud</strong> Adobe dichiara di poter analizzare i file per migliorare i prodotti, anche se afferma di non usare i contenuti privati per addestrare modelli generativi generalisti salvo invio a Stock; resta però buona pratica verificare e modificare le impostazioni di <em>Content Analysis</em> nel tuo account.</p><p><strong>Figma</strong> può usare testi, immagini, commenti e metadati per addestrare le sue funzioni IA tramite l’impostazione <strong>Content training</strong>; gli amministratori di team possono abilitare o disabilitare questa opzione e, per molti piani Starter/Professional, la condivisione è attiva di default, mentre Organization/Enterprise offre protezioni maggiori. Se lavori con proprietà intellettuale sensibile, chiedi all’admin del team di disattivare il training.</p><p><strong>Canva</strong> <a href="https://www.canva.com/newsroom/news/safe-ai-canva-shield/">dichiara</a> politiche di privacy che permettono agli utenti di controllare i propri dati e segnala programmi per remunerare contributor; tuttavia le pratiche di training e le condizioni di opt‑in/opt‑out variano e vanno verificate nelle impostazioni del tuo account, specialmente per contenuti caricati pubblicamente o condivisi.</p><h4>Cosa fare subito:</h4><ul><li><strong>Evitare di caricare su Adobe Stock materiali che non si desidera vengano usati per l’addestramento dei modelli</strong>; controllare le FAQ di Firefly e le impostazioni di Creative Cloud per capire come vengono trattati i contenuti.</li><li><strong>Chiedere all’amministratore di Figma di disattivare l’opzione di utilizzo dei contenuti per il training del team</strong>, oppure spostare offline i file più sensibili.</li><li><strong>Verificare le impostazioni di Canva</strong>: consultare le sezioni dedicate alla privacy e alla sicurezza e controllare se è attivo l’uso dei propri contenuti per programmi di addestramento o fondi per i creator.</li><li><strong>Conservare screenshot delle impostazioni e delle policy</strong>, perché possono cambiare nel tempo e alcune modifiche possono avere effetto retroattivo.</li></ul><h3>Occhio ai social: <strong>non tutti i contenuti che pubblichi restano “solo tuoi”</strong>.</h3><p>Su <strong>LinkedIn</strong> esiste oggi un’impostazione chiamata <strong>“Data for Generative AI Improvement”,</strong></p><p><a href="https://www.linkedin.com/help/linkedin/answer/a6278444">Control whether LinkedIn uses your data to improve generative AI (GAI) models that are used for content creation on LinkedIn | LinkedIn Help</a></p><p>che controlla se i tuoi post, commenti e altri contenuti possano essere usati per addestrare i modelli generativi che, ad esempio, aiutano a scrivere bozze di post. Questa opzione riguarda in particolare i modelli di generazione di contenuti e non necessariamente altri sistemi interni come quelli per suggerire contatti o filtrare spam.</p><p>Per <strong>Meta</strong> (Facebook, Instagram, Threads) la situazione è più complessa: l’azienda ha annunciato piani per usare <strong>contenuti pubblici e interazioni</strong> per addestrare Meta AI e modelli come Llama, e ha predisposto modalità di notifica e strumenti per gli utenti europei per esercitare diritti e limitare l’uso dei propri dati.</p><p>Tuttavia le modalità e l’efficacia dell’opt‑out dipendono dal contesto normativo (GDPR in UE) e dalle procedure messe a disposizione. In pratica, <strong>Meta può usare post pubblici e interazioni per training</strong>, mentre i messaggi privati e gli account di minorenni sono esclusi; gli utenti UE hanno strumenti più forti per opporsi rispetto ad altre giurisdizioni.</p><h4>Cosa fare ora (pratico)</h4><ul><li><strong>LinkedIn:</strong> vai su <strong>Impostazioni → Data privacy → Data for Generative AI Improvement</strong> e disattiva l’opzione. <strong>Salva uno screenshot.</strong></li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/971/1*MPhLGBIygtYq3EqXD8PRDQ.png" /></figure><ul><li><strong>Meta:</strong> verifica le notifiche in-app e la pagina privacy; se sei in <strong>UE</strong> <a href="https://www.facebook.com/privacy/genai/">segui la procedura indicata</a> per limitare l’uso dei tuoi dati e conserva le comunicazioni (ti suggerisco di seguire il link perchè la navigazione dall’app mobile o web spesso porta a risultati, diciamo ‘<em>opachi</em>’)<br><strong>Salva screenshot</strong> delle impostazioni e delle email ricevute.</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/635/1*F4ohogSiXoJ3Ltk6A771RQ.png" /></figure><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*RV4Nyi38cZd6e0MSKrAJEQ.png" /></figure><h3>In conclusione: dovremmo poter scegliere all’inizio, non alla fine</h3><p>Molte piattaforme di intelligenza artificiale, quando vengono utilizzate in ambito aziendale, non impiegano automaticamente i dati degli account per addestrare i modelli. Per gli utenti privati, invece, questa pratica è spesso attiva di default, lasciando alle persone il compito di cercare come disattivarla. Una scelta che solleva più di una perplessità.</p><p>È vero che sarebbe auspicabile una maggiore consapevolezza da parte degli utenti, ma è altrettanto evidente che le aziende ricorrono a linguaggi complessi e a politiche sulla privacy estremamente lunghe, rendendo difficile orientarsi. Il fatto che l’<strong>opt‑out non sia l’impostazione predefinita</strong>, ma un’opzione nascosta tra molte altre, rappresenta già di per sé una forma di pressione poco trasparente.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*TJLRzKEsVpav_-1j2-EaaQ.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=19cf0ac290a7" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/come-bloccare-luso-dei-nostri-dati-per-allenare-l-intelligenza-artificiale-19cf0ac290a7">Come bloccare l’uso dei nostri dati per allenare l’Intelligenza Artificiale</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Come i chatbot di IA stanno trasformando il fotoritocco nel nuovo “Photoshop per tutti”]]></title>
            <link>https://webeconoscenza.gigicogo.it/come-i-chatbot-di-ia-stanno-trasformando-il-fotoritocco-nel-nuovo-photoshop-per-tutti-092d6f954740?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/092d6f954740</guid>
            <category><![CDATA[photoshop]]></category>
            <category><![CDATA[fotoritocco]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[nano-banana]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Wed, 11 Mar 2026 18:13:07 GMT</pubDate>
            <atom:updated>2026-03-11T18:13:06.227Z</atom:updated>
            <content:encoded><![CDATA[<h3>Come i chatbot di IA stanno trasformando il fotoritocco nel nuovo “Photoshop per tutti”.</h3><h4>Dalla cultura degli strumenti alla cultura dell’intento: perché descrivere una foto sta diventando più importante che saper usare un editor.</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*234QM6C786_5CFoy0n6blg.jpeg" /></figure><p>Immagina una foto di Venezia al tramonto: cielo rosa, monumenti sull’acqua, qualche gondola sullo sfondo.<br>È uno scatto importante a cui tieni e che purtroppo è rovinato da una gru, un passante in primo piano e altri elementi di disturbo che la rendono banale.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*-dwLpCG-l0xySdRB215eqg.jpeg" /></figure><p>Fino a ieri per sistemare quell’immagine servivano almeno due cose: un software come Photoshop e un minimo di competenza su <strong>livelli, maschere, curve, filtri </strong>(roba per iniziati o per professionisti).</p><p>Oggi, sempre più spesso, basta un chatbot: carichi la foto, scrivi “<em>togli il palo e la ragazza con il cappotto, esalta i riflessi sull’acqua e scalda i colori per un’atmosfera da cartolina</em>”. Poi aspetti qualche secondo et voilà, il chatbot ti genera una nuova foto trasformata. Forse migliorata (ma questo dipende, come sempre, dai gusti).</p><p>Quello che sta succedendo nel mondo dell’IA generativa è esattamente questo: <strong>il fotoritocco sta passando dalle mani di chi sa usare Photoshop a chiunque sappia descrivere, a parole, il risultato che vuole ottenere.</strong></p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FC5TcqgRHfkM%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DC5TcqgRHfkM&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FC5TcqgRHfkM%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/63c5190fa8e564af3fb289fadba2cfd0/href">https://medium.com/media/63c5190fa8e564af3fb289fadba2cfd0/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h4>Dalla cultura dello strumento alla cultura dell’intento</h4><p>Per anni il fotoritocco digitale è stato costruito intorno a un paradigma molto chiaro: prima impari lo strumento (che si tratti di Photoshop, Lightroom, Gimp o qualsiasi altro) poi assimili il suo <strong>vocabolario tecnico</strong> fatto di <strong>layer, maschere di livello, curve, HSL, clonazioni, dodge &amp; burn </strong>e<strong> s</strong>olo dopo potrai provare a tradurre il tuo <strong>intento creativo</strong> in una sequenza di operazioni.</p><p>Il vero collo di bottiglia, però, non è mai stata l’idea. Dire “<em>vorrei più atmosfera</em>” o “<em>ci sono troppe distrazioni</em>” è alla portata di chiunque. Il difficile era trasformare quell’intenzione in passaggi tecnici concreti, spesso complessi, che richiedevano tempo, studio e una certa manualità. È così che l’editing è diventato qualcosa che, se non proprio elitario, di certo <strong>non accessibile a tutti</strong>.</p><p>Con i chatbot multimodali questa logica si ribalta. Parti dall’intento (<em>“ripulisci la scena”, “enfatizza il tramonto”, “mantieni la pelle naturale”</em>) lo esprimi in <strong>linguaggio naturale</strong> e lasci che sia il modello a tradurlo in operazioni tecniche. Non devi più conoscere gli strumenti per ottenere il risultato: <strong>devi solo saper dire cosa vuoi</strong>.</p><h4>I chatbot ora “vedono” le foto (e le capiscono)</h4><p>La premessa tecnica è la <strong>multimodalità</strong>: i chatbot di nuova generazione non gestiscono più solo testo, ma anche immagini (e, sempre più spesso, audio e video) nello stesso flusso di conversazione.</p><p>Questo significa che puoi caricare una foto come allegato alla chiacchierata con il chatbot e chiedere allo stesso di <strong>descriverla</strong> (“<em>dimmi cosa vedi, cosa stona, cosa potrei migliorare</em>”) per poi passare alla <strong>fase di intervento</strong> (“<em>ora elimina gli elementi di disturbo e valorizza l’atmosfera del tramonto</em>”).</p><p>La chat diventa così un potentissimo <strong>strumento critico</strong> (ti aiuta a leggere la scena) e uno <strong>strumento operativo</strong> efficacissimo (applica modifiche concrete).</p><h3>Prova su strada</h3><p>La prima prova l’ho condotta <strong>dialogando direttamente con il chatbot</strong> per fasi. La fase iniziale si è concentrata sulle sottrazioni, ovvero l’eliminazione degli elementi di disturbo.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*Pmb6qJcuU0GiiEYRxdlkOg.png" /></figure><p>La fase successiva sul riequilibrio delle tonalità del cielo e della luce, nonché sull’illuminazione dei lampioni.</p><p>Insomma <strong>quasi un fake rispetto all’originale</strong>, ma l’intento divulgativo non è quello di fare un quadro da esposizione, o fingersi professionisti dello scatto perfetto, bensì quello di far comprenderne le potenzialità del chatbot.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/848/1*JseOvGdKrb0pqa1vLyZqDg.jpeg" /></figure><p>Non riporto l’intero dialogo con il chatbot perché renderebbe l’articolo illeggibile, ma vale la pena sottolineare che è sufficiente indicare cosa togliere e quale elemento vivacizzare usando termini semplici, che nulla hanno a che vedere con la <strong>terminologia dei professionisti dell’editing fotografico</strong>.</p><h3>ChatGPT + Photoshop: il professionista che si mette al tuo servizio</h3><p>Vediamo ora un altro approccio, quello <strong>applicativo</strong> che passa per una sinergia di fatto. Un passaggio chiave di questa evoluzione è stato l’accordo tra Adobe e OpenAI per <strong>sperimentare integrazioni conversazionali tra ChatGPT e i servizi Creative Cloud</strong>. Si tratta di una funzionalità ancora in fase sperimentale, con accesso e funzionalità parziali, ma già abbastanza matura da mostrare la direzione verso cui si sta andando.</p><p>Cosa significa in pratica?</p><p>Entri in ChatGPT, vai in <strong>Impostazioni → App -&gt; Esplora app e </strong>colleghi l’app di Photoshop.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/670/1*98jgEP47uAbsd8lUZLECNw.png" /></figure><p>Eseguendo questo piccolo settaggio il modello diventa di fatto <strong>l’interfaccia conversazionale dell’editing</strong>. Non modifica direttamente le immagini: interpreta la tua richiesta in linguaggio naturale e attiva le funzioni disponibili nei servizi cloud di Photoshop.</p><p>In pratica puoi descrivere ciò che vuoi fare con una frase semplice — ad esempio “r<em>imuovi le persone sullo sfondo</em>”, “<em>rendi il cielo più drammatico</em>” oppure “<em>scalda la luce del tramonto</em>”. Il sistema invia la richiesta ai servizi di Photoshop, esegue l’operazione e restituisce l’immagine modificata direttamente nella chat.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1019/1*If03Ay7aq8l8yci0XmG6gw.png" /></figure><h4>Perché è interessante anche per chi non sa usare Photoshop?</h4><p>Il primo vantaggio è evidente: <strong>non serve conoscere l’interfaccia del software</strong>. Molte operazioni che normalmente richiedono <em>pannelli, livelli </em>e<em> maschere </em>possono essere richieste semplicemente a parole.</p><p>In altre parole, ChatGPT diventa una sorta di <strong>interprete</strong> tra l’utente e gli strumenti professionali di Adobe.</p><p>Il secondo cambiamento riguarda il modo di lavorare. L’editing diventa <strong>iterativo e conversazionale</strong>. Non devi ottenere subito il risultato perfetto: puoi migliorarlo passo dopo passo con nuove richieste.</p><p>Per esempio: <em>“abbassa un po’ la saturazione” </em>o<em> “aumenta il contrasto del cielo”, </em>oppure <em>“ammorbidisci le ombre sugli edifici”.</em></p><p><strong>Il processo assomiglia più a un dialogo creativo</strong> che all’uso tradizionale di un software complesso.</p><h4>Attenzione però: non è Photoshop completo</h4><p>Qui conviene essere chiari per evitare aspettative sbagliate.</p><p>L’integrazione con ChatGPT espone <strong>solo una parte delle funzionalità di Photoshop</strong>. In chat puoi usare soprattutto:</p><ul><li>regolazioni globali di luce e colore</li><li>rimozione o modifica di elementi</li><li>alcuni effetti e miglioramenti visivi</li><li>interventi selettivi relativamente semplici</li></ul><p>Se invece devi fare lavori più sofisticati (composizioni complesse, gestione avanzata dei livelli, maschere dettagliate o ritocchi estremamente precisi) l’immagine va ancora aperta nel Photoshop tradizionale (desktop o web).</p><h4>I limiti meno evidenti dell’editing conversazionale</h4><p>Oltre alla riduzione delle funzioni, ci sono tre aspetti che spesso non vengono citati nelle guide.</p><p>Il primo è <strong>il controllo</strong>. Con i prompt hai meno precisione rispetto agli strumenti manuali: alcune modifiche richiedono più tentativi per arrivare esattamente all’effetto desiderato.</p><p>Il secondo è <strong>la prevedibilità del risultato</strong>. Il sistema interpreta il linguaggio naturale e quindi può produrre variazioni inattese. Non è raro dover rifinire il risultato con richieste successive.</p><p>Il terzo riguarda <strong>i workflow professionali</strong>. Flussi complessi basati su livelli, profili colore o file ad altissima risoluzione restano molto più gestibili dentro il Photoshop completo.</p><h4>In sintesi</h4><p><strong>L’editing conversazionale non sostituisce Photoshop. </strong>Ma cambia radicalmente il modo di accedere ai suoi strumenti.</p><p>Descrivere l’intervento a parole è spesso il modo più rapido per ottenere un buon risultato in molte attività quotidiane, come pulire una foto, migliorare luce e atmosfera, rimuovere elementi di disturbo o preparare immagini per social e presentazioni.</p><p>Per i lavori più complessi, invece, l’interfaccia tradizionale resta insostituibile.</p><h4>Prova su strada con ChatGpt e l’integrazione di Photoshop in chat</h4><p>Per ottenere risultati soddisfacenti nel test, ho chiesto a ChatGPT di aiutarmi a costruire un prompt efficace: interagendo in modo dialogico, gli ho chiesto di <strong>strutturarmi la richiesta ottimale</strong> da usare poi con l’integrazione Photoshop.</p><blockquote>Scrivimi il prompt perfetto per ottimizzare la foto allegata. Ovvero, vorrei eliminare elementi di disturbo come le persone in primo piano, la barca con la gru, le bancarelle, la gru sopra il palazzo, ecc. Poi rendere l’atmosfera più cool, ovvero atmosfera da tramonto sulla laguna. Scrivimi proprio il miglior prompt possibile per l’uso di Photoshop dentro ChatGPT, in modo che io possa ottenere un buon risultato.</blockquote><p>Di seguito l’output di ChatGpt pronto all’uso:</p><blockquote>Ripulisci questa fotografia mantenendo l’inquadratura originale.<br>1. Rimuovi tutti gli elementi di disturbo:<br>- elimina le persone in primo piano sulla scalinata e sulla balaustra<br>- elimina la barca con la gru sulla sinistra<br>- rimuovi le bancarelle e i chioschi sulla destra<br>- elimina la gru sopra il palazzo<br>- riduci drasticamente il numero di persone sulla piazza mantenendo solo poche figure lontane per dare scala alla scena</blockquote><blockquote>2. Ricostruisci realisticamente le aree rimosse:<br>- estendi la pavimentazione della piazza<br>- completa la linea del molo e dell’acqua<br>- ricrea il cielo e l’orizzonte in modo naturale<br>- mantieni coerente l’architettura veneziana e le prospettive originali</blockquote><blockquote>3. Migliora l’atmosfera generale:<br>- trasforma la scena in un tramonto caldo sulla laguna veneziana<br>- enfatizza la luce dorata del sole basso<br>- aumenta leggermente il contrasto tra cielo e architettura<br>- aggiungi riflessi caldi sull’acqua<br>- rendi il cielo più drammatico ma realistico, con nuvole illuminate dal tramonto</blockquote><blockquote>4. Mantieni un risultato fotografico realistico:<br>- niente effetto illustrato o artificiale<br>- colori naturali<br>- nitidezza equilibrata e luce morbida tipica della golden hour.</blockquote><p>Il risultato è visibile qui sotto. Il lavoro svolto dal chatbot integrato con Photoshop risulta indubbiamente interessante, soprattutto se confrontato con il tempo e le competenze che le stesse operazioni richiederebbero nell’applicazione tradizionale.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*BwacwQy7Z2ClK9m2JP1aFg.jpeg" /></figure><h3>Google Gemini: l’editor nativo dentro la chat</h3><p>Google ha scelto una strada diversa: invece di “portare dentro” uno strumento esterno (avrebbe potuto usare Snapseed, ad esempio), ha <strong>incorporato nativamente strumenti di editing nelle app Gemini</strong>.</p><p>Nel 2025 Gemini ha implementato un editor di immagini integrato nell’app, sia web che mobile, affiancato da un nuovo modello di editing sviluppato da Google DeepMind pensato per trasformazioni coerenti di persone, oggetti e sfondi: ottimizzato per mantenere la somiglianza quando si cambia abbigliamento, ambientazione o epoca di una persona, per amalgamare più foto in una scena coerente e per supportare modifiche a più turni, cioè una sequenza di richieste successive sulla stessa immagine.</p><p>Nella pratica, con Gemini ora puoi caricare una foto e chiedere “<em>rimuovi il palo sulla destra e il cestino in basso a sinistra</em>”, cambiare il cielo “<em>trasforma il cielo in un tramonto più drammatico, ma mantieni i riflessi realistici sull’acqua</em>”, fondere due foto “<em>unisci il mio ritratto con questo sfondo di Venezia, rispettando la luce del tramonto</em>”, modificare look e stile “<em>applica un look analogico anni ’70, con grana leggera e toni caldi</em>”, ecc.</p><p>Gemini è ottimizzato per:</p><ul><li>mantenere la “somiglianza” quando cambi abbigliamento, ambientazione o epoca di una persona,</li><li>amalgamare più foto in una scena coerente,</li><li>supportare modifiche a più turni, cioè una sequenza di richieste successive sulla stessa immagine.​</li></ul><p>Tutte le immagini create o modificate tramite Gemini vengono <strong>marcate con watermark</strong> (invisibili e, in alcuni casi, anche visibili) per indicare che sono passate da un processo di IA generativa. Un dettaglio tecnico importante, che torna utile quando si parla di etica e disinformazione.</p><h4>Dalla teoria alla pratica: cosa puoi fare davvero oggi</h4><p>Ecco alcuni <strong>prompt concreti</strong> che oggi possono funzionare con Gemini:</p><ul><li><strong>Pulizia della scena</strong><br>“<em>Rimuovi tutti gli oggetti che distraggono in primo piano (cestini, pali, persone sfocate) e mantieni solo gondole, palazzi e laguna</em>.”</li><li><strong>Atmosfera da cartolina</strong><br>“<em>Aumenta leggermente la saturazione dei colori, scalda il bilanciamento del bianco e aggiungi un tocco di contrasto locale per enfatizzare i dettagli dei palazzi, senza rovinare i riflessi sull’acqua</em>.”</li><li><strong>Versione social‑ready</strong><br>“<em>Ritaglia l’immagine in formato verticale 4:5 per Instagram, centrando il canale. Aggiungi un leggero vignettatura ai bordi per guidare lo sguardo verso il centro.</em>”</li><li><strong>Esperimento creativo</strong><br>“<em>Applica un look analogico anni ’70, con grana fine e colori leggermente sbiaditi, mantenendo però il cielo del tramonto vivido</em>.”</li><li><strong>Serie coerente di scatti quando hai più foto della stessa passeggiata</strong><br>“<em>Applica lo stesso stile cromatico e il medesimo contrasto a tutte queste foto, in modo che sembrino parte dello stesso racconto di viaggio.</em>”</li></ul><p>L’utente ragiona per <strong>intenzioni narrative e percettive</strong>, non per strumenti tecnici. Il chatbot diventa una sorta di <strong>assistente di post‑produzione a cui dare istruzioni ad alto livello</strong>.</p><h4>Prova su strada con Gemini</h4><p>Anche in questo caso ho usato lo stesso approccio: ho chiesto a ChatGPT di aiutarmi a costruire il prompt da inviare poi a Gemini. Il confronto tra i due test è utile non tanto per valutare i risultati estetici, quanto per capire come piattaforme diverse interpretino le stesse istruzioni.</p><blockquote>Ottimizza questa foto come se fosse destinata a una rivista di viaggio.</blockquote><blockquote>Rendi la scena più pulita e leggibile eliminando gli elementi più distraenti<br>in primo piano, ma mantieni alcune persone lontane per dare vita alla scena.</blockquote><blockquote>Migliora la luce del tramonto rendendo il cielo più caldo e la laguna<br>leggermente più luminosa, con riflessi naturali sull’acqua.</blockquote><blockquote>Aumenta la profondità atmosferica tra primo piano, piazza e skyline<br>in modo che l’occhio venga guidato verso la basilica sullo sfondo.</blockquote><blockquote>Mantieni colori realistici e uno stile fotografico naturale,<br>non artificiale.</blockquote><figure><img alt="" src="https://cdn-images-1.medium.com/max/869/1*bKgWJuKLyGFei4uQ2Sm6_A.png" /></figure><p>Il risultato è significativo e mostra come questi strumenti permettano a chiunque di sperimentare stili e atmosfere in modo accessibile. Da notare il watermark visibile in basso a sinistra, inserito automaticamente da Gemini per segnalare l’intervento dell’IA generativa.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/896/1*Z0rKBW9CSSUtl2G7H7Lmwg.png" /></figure><h3>I limiti (molto concreti) del fotoritocco via chat</h3><p>Il fotoritocco via chat è un’innovazione interessante, ma non è ancora un sostituto completo di programmi professionali come Photoshop.</p><p>Offre funzioni di base come regolazioni, rimozione di elementi e qualche effetto, ma non riesce a gestire composizioni complesse, ritocchi avanzati della pelle o file ad alta risoluzione per la stampa.</p><p>Inoltre, strumenti come Gemini possono dare risultati strani, con proporzioni sbagliate o dettagli incoerenti, mentre il controllo preciso, pixel per pixel, rimane possibile solo con i programmi tradizionali.</p><p>Ci sono poi problemi di latenza, piccoli errori e dipendenza da internet: bisogna avere una buona connessione e i risultati possono cambiare nel tempo.</p><p>In sintesi: il fotoritocco via chat <strong>abbassa notevolmente la soglia di accesso </strong>alle modifiche più comuni, ma <strong>non sostituisce le competenze professionali </strong>né le funzionalità avanzate dei programmi tradizionali, che restano necessari per composizioni complesse, ritocchi precisi e file ad alta risoluzione destinati alla stampa.</p><h3>Rischi, deepfake e watermark: il lato oscuro della democratizzazione</h3><p>Mettere nelle mani di chiunque strumenti in grado di incidere così pesantemente sulle immagini originali, significa anche abbassare drasticamente la soglia per produrre<strong> immagini ingannevoli</strong>.</p><p>Per questo alcuni attori stanno introducendo contromisure:</p><ul><li>Google applica un <strong>watermark</strong> SynthID alle immagini generate o modificate con Gemini, per segnalarne l’origine artificiale.</li><li>Adobe e altri player stanno lavorando su standard aperti di <strong>Content Credentials</strong>, per allegare ai file metadati sulla loro storia di editing.</li></ul><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2F9btDaOcfIMY%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3D9btDaOcfIMY&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2F9btDaOcfIMY%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/4b9f07b2b62a906ab12e7f31bc94c91c/href">https://medium.com/media/4b9f07b2b62a906ab12e7f31bc94c91c/href</a></iframe><p>Ma la tecnologia non basta: serve una nuova <strong>alfabetizzazione visiva</strong>.<br>Così come abbiamo imparato, negli anni, a diffidare di certe fonti online, dovremo imparare a chiederci: questa foto è plausibile? da dove arriva? è chiaramente dichiarata come composita o generata?</p><p>Paradossalmente, la stessa facilità che rende possibile “pulire” la foto di Venezia al tramonto per un post Instagram, rende altrettanto facile costruire <strong>una Venezia che non è mai esistita</strong>. E questo incrementa diffidenza, sfiducia, e soprattutto tanto Ai slop!<br>A rifletterci bene, una volta ci accontentavamo dei nostri scatti. <strong>Ora, non più!</strong></p><h3>Prompt design visivo: la nuova “grammatica” del fotoritocco</h3><p>Dentro questo scenario, il <strong>prompt design</strong> diventa la nuova grammatica del fotoritocco. Non siamo più costretti a studiare curve, livelli e maschere, ma impariamo a scrivere richieste chiare, contestualizzate, iterabili.</p><p>I principi che valgono già per il testo (chiarezza, obiettivi espliciti, contesto, passo‑passo) si applicano anche alle immagini: invece di “<em>migliora la foto</em>”, dobbiamo imparare a usare “<em>rimuovi gli oggetti di disturbo in primo piano, poi rendi i colori leggermente più caldi e aumenta il contrasto locale sui palazzi all’orizzonte</em>”.</p><p>In fondo si tratta di nuova forma di <strong>alfabetizzazione visiva‑testuale</strong>: saper leggere e saper istruire le macchine che trasformano le immagini.</p><h3>Cosa cambia per fotografi, content creator e “persone normali”</h3><p>Per i professionisti dell’immagine, questi strumenti possono essere un <strong>acceleratore</strong> (batch editing conversazionale, mockup rapidi, versioni multiple da proporre al cliente), ma anche una <strong>pressione competitiva</strong> sul mercato delle lavorazioni più semplici, che rischiano di essere assorbite dal “fai da te guidato”.</p><p>Per creator, blogger e comunicatori non specialisti, rappresentano un modo per <strong>alzare rapidamente l’asticella della qualità visiva</strong> senza diventare tecnici, permettono di sperimentare stili, atmosfere e layout in modo molto più agile, lasciando al professionista le lavorazioni veramente critiche.</p><p>Per le “persone normali senza rudimenti tecnici”, infine, la grande novità è psicologica: smettere di pensare al fotoritocco come qualcosa di “magico” e riservato a pochi e iniziare a percepirlo come <strong>prosecuzione della conversazione</strong> con il proprio assistente digitale.</p><h3>Conclusione: una nuova intimità con le immagini</h3><p>La foto di Venezia al tramonto e le sue trasformazioni con l’IA (al netto dei gusti) è un buon esempio di questo momento storico.</p><p>Da un lato c’è l’esperienza classica: esportare il RAW, aprirlo in un editor, lavorare con livello di contrasto, curve, maschere di luminanza.<br>Dall’altro c’è l’esperienza emergente: caricare la foto in una chat, raccontare cosa vuoi, rifinire per iterazioni.</p><p>In mezzo, ci siamo noi a dover imparare un nuovo linguaggio per dialogare con gli strumenti, a <strong>decidere quando basta il “buon abbastanza” dell’IA e quando vale la pena coinvolgere un occhio (e una mano) esperto</strong>, a sviluppare nuovi anticorpi critici contro immagini sempre più facili da manipolare.</p><p>Se la fase “Photoshop per tutti” aveva abbassato la soglia di accesso al fotoritocco, la fase “Photoshop via chatbot” la sta praticamente azzerando.<br>La sfida, adesso, non è più solo <strong>come</strong> migliorare le nostre foto, ma <strong>con quale consapevolezza</strong> scegliamo di farlo.</p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=092d6f954740" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/come-i-chatbot-di-ia-stanno-trasformando-il-fotoritocco-nel-nuovo-photoshop-per-tutti-092d6f954740">Come i chatbot di IA stanno trasformando il fotoritocco nel nuovo “Photoshop per tutti”</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Alla ricerca della sovranità digitale: Il Fediverso e l’AI che non vive solo in America]]></title>
            <link>https://webeconoscenza.gigicogo.it/alla-ricerca-della-sovranit%C3%A0-digitale-il-fediverso-e-lai-che-non-vive-solo-in-america-65667b5e83b4?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/65667b5e83b4</guid>
            <category><![CDATA[fediverso]]></category>
            <category><![CDATA[ente]]></category>
            <category><![CDATA[open-source]]></category>
            <category><![CDATA[ensu]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Wed, 04 Mar 2026 19:01:55 GMT</pubDate>
            <atom:updated>2026-03-04T19:01:53.716Z</atom:updated>
            <content:encoded><![CDATA[<h4><strong>Da Ente ed Ensu: ho provato un altro chatbot locale (ibrido e multilaterale)</strong></h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*UMjUCWYpKAlK_Q7bX2e3fg.png" /></figure><p>Da qualche anno uso <a href="https://ente.io">Ente</a> per archiviare le mie foto: un servizio cloud open source che mette al centro la privacy e la cifratura, e si integra con piattaforme del <a href="https://fediverso.info/#info">Fediverso</a>. <a href="https://ente.io">Ente</a> Photos non è infatti un social per scoprire contenuti ma <strong>un luogo per il backup sicuro e la condivisione selettiva</strong>: album privati, link seguibili per chi scegliete e integrazione opzionale con <a href="https://mastodon.social/@gigicogo">Mastodon</a>, <a href="https://pixelfed.uno/gigicogo">PixelFed</a> e altre piattaforme quando decidete di rendere pubbliche alcune raccolte.</p><p>A differenza di PixelFed, pensato come alternativa etica a Instagram per visibilità e scoperta, <strong>Ente privilegia il controllo e la riservatezza</strong>, offrendo trasparenza grazie all’open source.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*qswqe52QD-pa9ep4ofh-Kw.jpeg" /><figcaption>Ente Photos</figcaption></figure><p>Questa premessa mi è utile per contestualizzare la scoperta di <a href="https://ente.io/ensu/">Ensu</a> (app ingegnerizzata da Ente) come naturale estensione di una pratica consolidata di <strong>tutela dei dati e di preferenza per strumenti decentralizzati</strong>, non come un esperimento casuale: se scrivo e parlo spesso di sovranità digitale e AI generativa è perché mi pongo una domanda semplice e decisiva: <em>voglio restare un consumatore passivo di tecnologie statunitensi o cinesi, oppure voglio abitare un ecosistema in cui anche l’Europa e i progetti indipendenti possano contare?</em></p><p>Ed è lo stesso filo che attraversa il mio <a href="https://webeconoscenza.gigicogo.it/ai-europee-sovranità-digitale-ai-act-e-nuovi-modelli-ae8572c2b020">recente articolo</a> su EU vs USA/Cina: <strong>chi controlla infrastrutture, modelli e dati finisce per condizionare pezzi importanti del nostro futuro digitale</strong>; a partire da qui, vale la pena esplorare che ruolo potrà avere <a href="https://ente.io/ensu/">Ensu</a> nel rafforzare alternative sovrane e quale impatto pratico tutto ciò potrà determinare per gli utenti, gli sviluppatori e i policy maker!</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FJU2DQ9bjAJI%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DJU2DQ9bjAJI&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FJU2DQ9bjAJI%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/5c42bfb3407a241b5f5a62556bc27c88/href">https://medium.com/media/5c42bfb3407a241b5f5a62556bc27c88/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Perché non è solo una questione tecnica</h3><p>Quando parliamo di AI, cloud o social network, spesso riduciamo tutto a “funziona bene?”, “è gratis?”, “è comodo?”. In realtà ogni scelta tecnologica è anche una scelta politica ed economica, che lo vogliamo o no.</p><p>Proprio <a href="https://webeconoscenza.gigicogo.it/ai-europee-sovranità-digitale-ai-act-e-nuovi-modelli-ae8572c2b020">nell’ articolo precedente sulle AI europee</a>, ricordavo un dato: <strong>circa l’80% della spesa in software e servizi cloud professionali in Europa finisce comunque in aziende statunitensi</strong>. Non è solo un problema di fatture: s<strong>ignifica che documenti, processi, idee e strategie aziendali finiscono dentro infrastrutture e modelli gestiti altrove</strong>. Anche quando i contratti dicono che i dati non verranno riutilizzati per l’addestramento, restano tre fatti difficili da ignorare: <strong>i server sono altrove, le decisioni strategiche sono altrove, l’evoluzione dei modelli è altrove.</strong></p><p>In questo contesto, scegliere strumenti europei, open source, o comunque strutturati per ridurre la dipendenza da pochi fornitori globali non è <strong>feticismo tecnicista</strong>: è un modo concreto per spostare anche di poco gli <strong>equilibri di potere</strong>.</p><h3>Chi è Ente: una via “privacy‑first” (con tutte le sue ambiguità)</h3><p><a href="https://ente.io">Ente</a>, l’azienda dietro il servizio che uso per le foto e ora dietro l’app <a href="https://ente.io/ensu/">Ensu</a>, è a tutti gli effetti una società statunitense registrata nel Delaware, Ente Technologies, Inc. Questo vuol dire che, sul piano giuridico, ricade nella sfera di influenza USA e delle sue leggi, incluso il famigerato <a href="https://it.wikipedia.org/wiki/CLOUD_Act">CLOUD Act</a> che può imporre la consegna di alcuni dati a fronte di ordini delle autorità.</p><p>Eppure <a href="https://ente.io">Ente</a> ha fatto scelte molto diverse da quelle tipiche delle grandi piattaforme:</p><ul><li>Archivia i dati cifrati in data center europei (Amsterdam, Francoforte, Parigi), con più copie ridondate.</li><li>Cifra “da un capo all’altro”: foto, metadati, persino i dati biometrici usati per riconoscere i volti sono leggibili solo sui dispositivi degli utenti, non sui server.</li><li>Non basa il proprio modello di business sulla pubblicità: vive di abbonamenti e dichiara esplicitamente di non vendere dati personali né usare cookie di tracciamento.</li><li>Ha reso open source client e server, consentendo a terzi di studiare, verificare e perfino auto‑ospitare parte dell’infrastruttura.</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*vX3AIzMlJtW7Z8xzuwHrLg.png" /></figure><p>Questa combinazione crea una tensione interessante: da un lato un’azienda americana soggetta al diritto USA, dall’altro un’architettura tecnica che minimizza ciò che il provider stesso può leggere dei nostri contenuti. <strong>È una risposta parziale al problema della sovranità, ma è già molto più avanzata di tanti servizi “chiavi in mano” nati per monetizzare i dati degli utenti</strong>.</p><h3>Che cos’è Ensu: un chatbot locale, non un altro “piccolo ChatGPT”</h3><p>Su questo terreno è nata <a href="https://ente.io/ensu/">Ensu</a>, la nuova app di Ente: in pratica un chatbot di AI che gira interamente sul tuo dispositivo, senza inviare le conversazioni a server remoti (avevo già scritto di questa modalità in un lungo tutorial divulgativo).</p><p><a href="https://webeconoscenza.gigicogo.it/ia-generativa-sul-tuo-computer-nessun-dato-condiviso-in-rete-c1c88d181cd3">IA generativa sul tuo computer: nessun dato condiviso in rete!</a></p><p>È possibile installare <a href="https://ente.io/ensu/">Ensu</a> per il computer, per lo smartphone, o farla girare semplicemente nel browser. Tutte le opzioni sono disponibili dalla pagina ufficiale e, una volta scelta la modalità di utilizzo, <a href="https://ente.io/ensu/">Ensu</a> proporrà di di scaricare il suo LMM dal peso di qualche gigabyte. Da quel momento possiamo farlo lavorare anche offline: <strong>nessun account obbligatorio, niente abbonamento, niente tracking dichiarato</strong>.<br>Ensu usa modelli linguistici open source ottimizzati per girare in locale (famiglie come SmolLM, Qwen, Llama), scelti in base alle capacità del dispositivo (sotto il cofano il team sta sperimentando con più famiglie di modelli). È stato ottimizzato per la <strong>privacy</strong> e la <strong>performance</strong>, con particolare attenzione alla gestione dei dati utente.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/847/1*GWquSl8M46Pj8W6ODGhlRw.png" /></figure><p>Se pensiamo a ChatGPT o ad altri servizi simili, lo schema è opposto: tu scrivi, i tuoi prompt viaggiano verso grandi data center, un modello gigantesco elabora la risposta e te la rimanda indietro. Con <a href="https://ente.io/ensu/">Ensu</a> è il telefono, il portatile o il tablet a fare il lavoro in casa tua, con un modello molto più piccolo ma che <strong>vive completamente sul dispositivo</strong>.</p><p>Gli stessi sviluppatori lo dicono senza giri di parole: Ensu non è potente quanto ChatGPT o Claude, almeno per ora. È un esperimento dichiarato, targato “Ente Labs”, che prova a rispondere a una domanda: <strong>fino a che punto è possibile avere un assistente AI tascabile, privato e senza cloud?</strong></p><h3>La mia “prova su strada”: com’è usare Ensu davvero</h3><p>Immaginiamo allora di fare quello che ho fatto con tanti altri strumenti: installarlo, usarlo per qualche giorno e vedere che risultati produce.</p><p>Come abbiamo visto l’installazione è molto semplice: scarico l’app e al primo avvio Ensu mi propone di scaricare il modello linguistico. Aspetto qualche minuto (dipende dalla connessione), e poi mi ritrovo in una schermata molto simile a quella di qualsiasi altro chatbot: campo di testo in basso, cronologia della chat sopra. Nessuna registrazione obbligatoria (quando attiveranno il back-up delle chat si potrà optare per l’accesso con credenziali), nessuna finestra che mi chiede di accettare termini di condivisione dei dati con terzi: già questo, <strong>per chi ha passato ore a districarsi tra cookie banner e consensi, è quasi straniante</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*4WiTulpx6IbXdU0cWwGeSA.png" /></figure><p>Nei primi scambi l’impressione è duplice. Da un lato, per compiti semplici: chiarire un dubbio, riassumere un concetto, riformulare un testo, Ensu se la cava dignitosamente. Dall’altro, appena alzo l’asticella, il limite emerge: <strong>quando provo a chiedere analisi più profonde, collegamenti complessi, o quando entro in domini molto specifici, noto risposte più vaghe, qualche imprecisione in più rispetto ai grandi modelli cloud</strong>.</p><p>E’ utile ricordare che, per ora, il modello rilasciato non esegue ricerche web in stile ‘deep research’, come dichiarato nel blog di Ente: ‘<em>Ensu currently doesn’t have web search, but you’ll be surprised how well it knows classics like the Gita or the Bible</em>’.</p><p>In compenso scopro situazioni in cui Ensu brilla proprio perché è locale:</p><ul><li>In viaggio, con connessione instabile, posso comunque lavorare sui miei testi, fare brainstorming o sintetizzare appunti.</li><li>Posso usarlo per contenuti che preferisco non inviare a servizi remoti: bozze delicate, note personali, ragionamenti ancora in embrione.</li><li>Posso persino farlo girare in modalità aereo: niente rete, solo il mio device e il modello.</li></ul><p>In altre parole, Ensu non sostituisce i “mostri sacri” del cloud quando mi serve il massimo della potenza, ma apre un nuovo spazio d’uso: <strong>quello dell’AI come taccuino privato, sempre con me, che non deve necessariamente passare da server dall’altra parte dell’oceano</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*dCfAXhZ97uVS_fB-nn70eA.png" /></figure><h3>Localizzazione, data center e politica dei luoghi</h3><p>A questo punto qualcuno potrebbe obiettare: ma se Ente è pur sempre un’azienda USA, che differenza fa usare Ensu rispetto a un qualsiasi servizio americano?</p><p>La risposta sta in due livelli diversi:</p><ol><li><strong>Dove girano i modelli e dove stanno i dati.</strong> Nel caso di Ensu i prompt e le risposte restano sul dispositivo, almeno finché non attiveranno (su base volontaria) una sincronizzazione cifrata tra più device appoggiandosi ai server di Ente e utilizzando dunque un’ autenticazione utente. <br>Nel caso di Ente Photos, ad esempio, i file sono cifrati e stoccati in data center europei. Non è la stessa cosa che usare direttamente un servizio dove tutto avviene su server statunitensi in chiaro o quasi. Quindi la speranza è che succeda più o meno la stessa cosa, con lo stesso approccio che, riduce molto l’impatto pratico del Cloud Act sui contenuti, perché ciò che Ente può consegnare sono log e blob cifrati, non il testo delle chat o le foto.</li><li><strong>Chi può imporre cosa.</strong> Essendo una corporation del Delaware, Ente può comunque ricevere ordini dalle autorità USA per fornire log, metadati, informazioni sugli account. Ma, proprio perché ha strutturato la sua infrastruttura in modo da non avere accesso ai contenuti in chiaro, quello che può consegnare è molto più limitato: non il testo delle mie chat, non le mie foto, ma al massimo informazioni su quando mi collego, quale piano uso, quali errori tecnici si verificano.</li></ol><p>Qui torna il tema della sovranità digitale: non è mai una questione binaria (“o tutto europeo o niente”), ma uno spettro. Strumenti come Ente ed Ensu non risolvono il problema alla radice, <strong>non trasformano magicamente un’azienda USA in un ente di diritto europeo</strong>, ma spostano l’ago della bilancia verso modelli in cui <strong>i contenuti sensibili non dipendono dalla buona volontà del fornitore o del suo paese di origine, bensì dalla crittografia e dalla località dell’esecuzione</strong>.</p><h3>Fediverso, open source e “AI di quartiere”</h3><p>Quando parliamo di <a href="https://fediverso.info/#info">Fediverso</a> pensiamo spesso a social network decentralizzati: tante isole collegate tra loro, invece di un unico continente dominato da una sola piattaforma. Ma la stessa logica può valere per l’AI: <strong>avere tanti modelli, servizi e infrastrutture interoperabili, invece di pochi colossi centralizzati.</strong></p><p>Ente si muove a metà strada: non è un progetto comunitario puro, ma ha abbracciato l’open source per il proprio codice e <strong>l’idea che le persone possano auto‑ospitare i servizi o, almeno, verificare come funzionano “sotto il cofano”</strong>. Ensu porta questa filosofia dentro il mondo dei chatbot: invece di dire “<em>collegati ai nostri server, ci pensiamo noi</em>”, dice “<em>prenditi questo modello, fallo girare in casa tua e usalo come preferisci</em>”.</p><p>In parallelo, in Europa stanno nascendo attori che spingono ancora più in là questa logica: Mistral, Aleph Alpha, Domyn, infrastrutture come quelle di Infomaniak o Proton che insistono sulla localizzazione europea dei data center e su modelli addestrati e gestiti dentro il perimetro europeo. Nessuno di questi progetti da solo “salva” la sovranità europea, <strong>ma tutti insieme iniziano a disegnare il contorno di una possibile “AI di quartiere”, più vicina geograficamente, giuridicamente e culturalmente.</strong></p><h3>Collegare l’esperienza individuale alle scelte di continente</h3><p>Tutto questo ha senso solo se riusciamo a collegare il gesto più banale ( installare una nuova app di chatbot sul telefono) alle dinamiche più grandi che ho provato a raccontare parlando di AI Act e di ecosistema europeo.</p><p>L’AI Act non è una legge scritta per addetti ai lavori: chiede, molto semplicemente, che chi sviluppa e usa sistemi di AI sappia dove stanno i dati, come vengono trattati, quali rischi comportano e quali tutele sono previste per le persone. In un mondo in cui i grandi modelli generalisti restano in gran parte extra‑UE, una delle poche leve che abbiamo è scegliere, ogni volta che possiamo, strumenti che riducono la distanza tra noi e l’infrastruttura: localizzazione dei data center, cifratura forte, possibilità di eseguire i modelli in casa nostra, codice verificabile.</p><p>Provare Ensu, in questo quadro, non è questione di feticismo da smanettoni: <strong>è un modo per sperimentare in prima persona cosa significa avere un assistente AI che non vive in un data center lontano, ma nel nostro dispositivo</strong>. È imperfetto, è meno brillante dei fratelli maggiori nel cloud, ma ci costringe a fare una domanda diversa: <strong>quanto valore siamo disposti a scambiare per qualche punto percentuale in più di “wow effect”?</strong></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/688/1*36_dBTGB0pdg3AR7KiFDkg.jpeg" /><figcaption>Ensu su Iphone</figcaption></figure><h3>Cosa mi porto a casa da Ensu (e cosa può portarsi a casa chi legge)</h3><p>Se dovessi riassumere in poche righe cosa rappresenta per me Ensu, direi così:</p><ul><li>È un assaggio di come potrebbe essere un’<strong>AI personale</strong>, non solo “as a service”: un agente che gira sui miei device, che non manda tutto a casa di altri, che può un giorno ricordarsi davvero di me in modo cifrato e sincronizzato.</li><li><strong>È una prova concreta che esiste spazio per un ecosistema di strumenti che non dipendono totalmente dalle infrastrutture e dai modelli di pochi grandi fornitori globali.</strong></li><li>È anche un promemoria dei limiti attuali: i modelli piccoli locali oggi non reggono il confronto con i giganti del cloud su tutti i fronti, e l’Europa ,come continente, è ancora <strong>lontana dall’avere una filiera completa totalmente autonoma.</strong></li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*YjQm3es9uSYXeqUYLPHaVg.png" /></figure><h3>Conclusione</h3><p>Ente ed Ensu non sono la risposta definitiva, ma sono buoni compagni di viaggio per chi, come me, vuole almeno provare a spostare il baricentro: meno “<em>AI degli altri, ovunque nel mondo</em>”, più “<em>AI nostra, locale, verificabile</em>”.</p><p>Riconoscere che ogni scelta di strumento implica una decisione strategica sulla destinazione dei dati, sull’accesso autorizzato e sull’influenza sul futuro digitale rappresenta un valore fondamentale e imprescindibile a cui, io, <strong>non sono disposto a rinunciare</strong>. E tu?</p><h3>Allegati</h3><p><a href="https://drive.google.com/file/d/1-AsPhpRlRPVHOzOaA4hS0raWUDDLjkv5/view?usp=sharing">Paper tecnico</a> elaborato con Gemini.</p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=65667b5e83b4" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/alla-ricerca-della-sovranit%C3%A0-digitale-il-fediverso-e-lai-che-non-vive-solo-in-america-65667b5e83b4">Alla ricerca della sovranità digitale: Il Fediverso e l’AI che non vive solo in America</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[AI europee: sovranità digitale, AI Act e nuovi modelli]]></title>
            <link>https://webeconoscenza.gigicogo.it/ai-europee-sovranit%C3%A0-digitale-ai-act-e-nuovi-modelli-ae8572c2b020?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/ae8572c2b020</guid>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[eu-ai-act]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[sovranità-digitale]]></category>
            <category><![CDATA[ai]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Wed, 25 Feb 2026 21:22:21 GMT</pubDate>
            <atom:updated>2026-02-25T21:22:20.511Z</atom:updated>
            <content:encoded><![CDATA[<h4>Da Mistral ad Aleph Alpha, da DeepL a Infomaniak: come l’Europa sta costruendo una via propria all’Intelligenza Artificiale (oltre la rincorsa a USA e Cina).</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*9McZ2Dg_SAF500Uz9D7mbA.png" /></figure><p>Quando si affronta il tema dell’Intelligenza Artificiale generativa e della sua evoluzione, la riflessione tende a focalizzarsi prevalentemente sugli Stati Uniti e sulla Cina, con aziende come OpenAI, Google e Anthropic da un lato, e Alibaba e Baidu dall’altro. Questo orientamento, purtroppo, sembra aver già definito il dibattito pubblico in materia e soprattutto il suo perimetro territoriale.</p><p>E l’Europa?</p><p>La risposta più onesta non è né trionfalistica né catastrofica. <strong>L’Europa non è assente, ma non sta giocando la stessa partita</strong>, e forse non dovrebbe nemmeno farlo.</p><p>Negli ultimi anni, si sta sviluppando un ecosistema, seppur ancora in fase embrionale, che si propone di tracciare un proprio percorso all’interno dei confini europei. Questo ecosistema comprende modelli linguistici sviluppati in Francia e Germania, startup specializzate nel Regno Unito, infrastrutture cloud locali e progetti nazionali di LLM sovrani, il tutto all’interno di un quadro normativo distintivo, e a mio parere eccellente, a livello globale: l’<strong>AI Act</strong>.</p><p>La domanda, tuttavia, non è se noi europei riusciremo a <em>battere</em> gli Stati Uniti. La vera questione è se desideriamo <strong>restare semplici consumatori di tecnologie altrui</strong> o diventare produttori (e regolatori) consapevoli del nostro futuro digitale.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2F8Hl8yBo5du0%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3D8Hl8yBo5du0&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2F8Hl8yBo5du0%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/60ce1a1475612a3f16d556c2eb140a5f/href">https://medium.com/media/60ce1a1475612a3f16d556c2eb140a5f/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Perché l’Europa non può limitarsi a usare l’AI degli altri</h3><p>Oggi la quasi totalità dei modelli generativi utilizzati da aziende e pubbliche amministrazioni europee è sviluppata e controllata fuori dall’Unione. Non è un dettaglio tecnico: <strong>è una scelta industriale, anche quando non la percepiamo come tale.</strong></p><p>Secondo il rapporto di Cigref sulla dipendenza tecnologica europea, circa l’80% della spesa in software e servizi cloud professionali in Europa è assorbita da aziende statunitensi.</p><p><a href="https://www.cigref.fr/la-dependance-technologique-aux-softwares-cloud-services-americains-une-estimation-des-consequences-economiques-en-europe">La dépendance technologique aux softwares &amp; cloud services américains : une estimation des conséquences économiques en Europe - Cigref</a></p><p>Nel caso dell’AI il tema è ancora più sensibile. Non stiamo semplicemente acquistando licenze: <strong>stiamo inserendo nei sistemi esterni documenti, processi, analisi strategiche, frammenti di conoscenza industriale</strong>. Anche quando i contratti escludono formalmente il riuso dei dati per addestramento, l’asimmetria resta.</p><p>I modelli evolvono altrove, le infrastrutture sono altrove, le decisioni strategiche sono altrove.<br>Non è una questione di sfiducia. <strong>È una questione di struttura del mercato.</strong></p><h3>I nuovi campioni europei dell’IA generativa</h3><p>Negli ultimi tre anni è emerso un nucleo di attori che non si limita a integrare tecnologie straniere, ma sviluppa modelli e infrastrutture proprie.</p><p>Il caso più noto è <a href="https://mistral.ai/it">Mistral AI</a>, oggi il riferimento europeo sui modelli di frontiera. L’azienda francese ha rilasciato modelli open, affiancandoli a soluzioni proprietarie. Nel 2024 ha raccolto circa 385 milioni di euro da investitori privati, raggiungendo una valutazione superiore ai 6 miliardi di euro. In altre parole, il mercato oggi considera Mistral una delle aziende tecnologiche più promettenti d’Europa. È il primo tentativo europeo veramente competitivo nel campo dei modelli di base.</p><p>Accanto a Mistral c’è <a href="https://aleph-alpha.com">Aleph Alpha</a>, che ha scelto una strada diversa. Nata con ambizioni da <em>OpenAI europea</em>, ha progressivamente orientato il proprio posizionamento verso AI sovrana per pubbliche amministrazioni, difesa e settori regolamentati. Il focus non è tanto sulla grandezza del modello, quanto sulla possibilità di installare i modelli direttamente sui server dell’organizzazione, senza far uscire i dati all’esterno, e con particolare attenzione al rispetto delle normative europee.</p><p>Un esempio di eccellenza più silenziosa ma estremamente concreta è <a href="https://www.deepl.com/it">DeepL</a>. Partita come motore di traduzione neurale, è diventata una piattaforma linguistica avanzata per imprese. Qui emerge una delle vere forze europee: <strong>il multilinguismo strutturale</strong>. In un continente con 24 lingue ufficiali, la competenza linguistica non è un dettaglio ma un vantaggio competitivo.</p><p>Nel Regno Unito c’è <a href="https://www.synthesia.io">Synthesia</a>, che trasforma un testo in un video con un presentatore virtuale. Scrivi, scegli la lingua, e l’avatar parla per te. È diventato uno strumento quotidiano per molte aziende.</p><p>E poi c’è <a href="https://stability.ai">Stability AI</a>, che con <a href="https://stablediffusionweb.com/it">Stable Diffusion</a> ha contribuito a democratizzare la creazione di immagini generate dall’AI, togliendola dal monopolio delle grandi piattaforme chiuse. Anche se l’azienda sta vivendo una fase di riorganizzazione, il suo contributo all’ecosistema europeo è stato decisivo.</p><p>In Italia si muove <a href="https://www.domyn.com/it">Domyn</a>, impegnata nella costruzione di LLM sovrani con partnership tecnologiche e supporto istituzionale. È ancora un progetto in consolidamento, ma segnala che <strong>il tema della sovranità AI non è più solo retorica politica</strong>.</p><p>E poi c’è l’infrastruttura, spesso trascurata nel dibattito pubblico. Realtà come <a href="https://www.infomaniak.com/it/euria">Euria</a> di Infomaniak o <a href="https://lumo.proton.me">Lumo</a> di Proton, dimostrano che la sovranità non riguarda solo il modello, ma anche il luogo fisico in cui gira: data center europei, alimentazione da rinnovabili, recupero del calore, governance locale. Senza infrastruttura, parlare di indipendenza è puramente simbolico.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*bZG-1RUiz-UMzQQwgCwIkQ.png" /></figure><h3>Un ecosistema diverso da quello americano e cinese</h3><p>È facile trasformare il tema in una narrazione <strong>noi contro loro</strong>. Ma sarebbe una semplificazione.<br>Gli Stati Uniti dispongono di capitali di rischio enormi, un mercato interno omogeneo e Big Tech che fungono da piattaforme globali. La Cina opera con una forte integrazione tra Stato e industria e con un coordinamento strategico centralizzato.</p><p>L’Europa è un’altra cosa: <strong>27 sistemi giuridici coordinati, forte attenzione alla regolazione, minore disponibilità di capitale ad alto rischio, cultura politica orientata alla tutela dei diritti</strong>. Non è detto che uno di questi assetti sia migliore in assoluto. Sono architetture istituzionali differenti, che producono traiettorie tecnologiche differenti.</p><p>L’AI europea si concentra soprattutto sulle aziende che vendono ad altre aziende, sui settori con molte regole, sul rispetto delle normative e sulla possibilità di tracciare tutto. Non perché manchi ambizione, ma perché il contesto economico e normativo la spinge in quella direzione.</p><h3>AI Act: cosa cambia davvero per chi usa l’AI</h3><p>Con l’approvazione dell’AI Act (<a href="https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=OJ:L_202401689">Regolamento UE 2024/1689</a>), l’Unione Europea ha introdotto il primo quadro normativo completo sull’Intelligenza Artificiale.</p><p>Non è una legge <em>per giuristi</em>. Impatta concretamente chi sviluppa, integra o utilizza sistemi AI.</p><p>Il principio è semplice:<strong> classificare l’AI in base al rischio</strong>. Alcune pratiche sono vietate; altre, considerate ad alto rischio, sono soggette a obblighi stringenti. Per i modelli General Purpose AI, come i grandi modelli linguistici che siamo abituati ad usare giornalmente, sono previsti <strong>requisiti di trasparenza, documentazione tecnica, valutazione dei rischi, attenzione al diritto d’autore e meccanismi di monitoraggio</strong> per i modelli con rischio sistemico.</p><p>Tradotto per chi non è tecnico: <strong>usare l’AI non è più solo una scelta tecnologica, ma anche contrattuale e organizzativa</strong>. Bisogna sapere dove stanno i dati, come vengono trattati, quali garanzie offre il fornitore e se è conforme al quadro europeo.</p><p>Non è un freno all’innovazione in sé. È un tentativo di rendere l’innovazione governabile.</p><h3>Come può distinguersi davvero l’Europa</h3><p>Competere frontalmente con OpenAI o Google sul piano della scala finanziaria è difficile nel breve periodo. Ma la competizione non è solo questione di dimensione.</p><p>Secondo il report di Roland Berger sulla sovranità AI in Europa, senza una base industriale e infrastrutturale autonoma il continente rischia una dipendenza strutturale analoga a quella già osservata nel cloud.</p><iframe src="https://drive.google.com/viewerng/viewer?url=https%3A//italianelfuturo.com/wp-content/uploads/2025/09/Roland_Berger_AI-sovereignty.pdf&amp;embedded=true" width="600" height="780" frameborder="0" scrolling="no"><a href="https://medium.com/media/cefa8cb1ca995ddf01f0d9f9111c35d2/href">https://medium.com/media/cefa8cb1ca995ddf01f0d9f9111c35d2/href</a></iframe><p>La differenza può nascere altrove: nei modelli verticali specializzati per sanità, manifattura e pubblica amministrazione; nella capacità di integrare AI e sostenibilità energetica; nella costruzione di sistemi auditabili e conformi per settori <strong>dove affidabilità e tracciabilità contano più della spettacolarità delle demo</strong>.</p><p>In altre parole, l’Europa potrebbe non diventare il principale produttore di modelli di intelligenza artificiale generalisti, ma potrebbe diventare <strong>il punto di riferimento mondiale per l’intelligenza artificiale regolamentata, industriale e infrastrutturale</strong>.</p><p>Non è una prospettiva glamour. È una strategia.</p><h3>Indipendenza non significa isolamento</h3><p>Essere indipendenti nell’era dell’AI non significa chiudere le frontiere digitali o smettere di usare strumenti americani.</p><p>Significa diversificare. Significa chiedere trasparenza contrattuale. Significa investire in soluzioni europee quando sono competitive. <strong>Significa considerare l’AI non solo come strumento di produttività, ma come infrastruttura di potere economico.</strong></p><p>Ogni prompt inserito in un sistema esterno è un micro-trasferimento di valore. Non è drammatico. <strong>Ma è cumulativo.</strong></p><p>La sovranità digitale non è <strong>nazionalismo tecnologico</strong>. È consapevolezza industriale.</p><p>Continuare a nutrire quasi esclusivamente AI americane o cinesi con i nostri dati, le nostre idee e le nostre strategie significa accettare, di fatto, una <strong>sottomissione tecnologica e culturale</strong>.</p><h3>Conclusione</h3><p>La questione fondamentale, di primaria importanza, non risiede nel determinare se l’Europa riuscirà a <strong>prevalere nella competizione globale</strong> per l’Intelligenza Artificiale. Piuttosto, la domanda cruciale è se l’Europa intenda almeno <strong>partecipare attivamente a tale competizione con le proprie risorse e capacità</strong>.</p><p>Sebbene questa questione sia di indubbia rilevanza, non rappresenta l’unica riflessione necessaria. Esiste, infatti, un’ulteriore domanda, di pari importanza, ma di natura più personale: <strong>continueremo ad utilizzare l’Intelligenza Artificiale in qualità di semplici consumatori globali, oppure desideriamo appartenere a un continente che opta per una gestione autonoma del proprio futuro digitale, evitando di delegare tale responsabilità ad altri?</strong></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*mQh1tlDa8OfVQtDBTIeIbQ.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=ae8572c2b020" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/ai-europee-sovranit%C3%A0-digitale-ai-act-e-nuovi-modelli-ae8572c2b020">AI europee: sovranità digitale, AI Act e nuovi modelli</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[IA generativa per le presentazioni: dal caos al processo]]></title>
            <link>https://webeconoscenza.gigicogo.it/ia-generativa-per-le-presentazioni-dal-caos-al-processo-7a9195aaca9b?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/7a9195aaca9b</guid>
            <category><![CDATA[presentations]]></category>
            <category><![CDATA[slides]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[pitch-deck]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Sat, 31 Jan 2026 17:19:26 GMT</pubDate>
            <atom:updated>2026-01-31T18:55:12.904Z</atom:updated>
            <content:encoded><![CDATA[<h4>Strumenti, limiti e metodo reale per usare l’AI generativa nelle presentazioni professionali</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*N3d3EB5RHzWMmlXIJdTqiA.jpeg" /></figure><p>Se ricordate, nove mesi fa avevo affrontato questo stesso tema con estrema curiosità e tante aspettative.</p><p><a href="https://webeconoscenza.gigicogo.it/ia-generativa-per-migliorare-le-presentazioni-analisi-del-contesto-e-strumenti-principali-81f6419d742e">IA generativa per migliorare le presentazioni. Analisi del contesto e strumenti principali.</a></p><p>Ci torno volentieri anche perchè sono fortemente interessato a questi scenari in prima persona.</p><p>Le mie attività professionali, infatti, mi portano a generare tantissime presentazioni, soprattutto per i corsi che erogo (a proposito, <a href="https://www.caldarinieassociati.it/calendario-corsi/?category=&amp;location=&amp;s_speaker=41457">qui</a> trovate il calendario del primo semestre 2026) e dunque tendo a perfezionare questa attività professionale nell’ottica di offrire slide accattivanti, leggibili, comprensibile e facilmente memorizzabili.</p><p>L’AI Generativa aiuta moltissimo in tutto questo ma, come sempre, la genesi delle idee e dei contenuti, e soprattutto il <strong>controllo sui risultati</strong>, devono essere in mano a noi (me per primo) in piena e matura adesione al concetto #HITL <strong>Human-in-the-loop</strong>.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un podcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2F-3iNurz5v7Y%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3D-3iNurz5v7Y&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2F-3iNurz5v7Y%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/8ce45b137147969f5972413fbd3c355c/href">https://medium.com/media/8ce45b137147969f5972413fbd3c355c/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Prima parte: metodologie.</h3><h4>Da ore di lavoro a pochi minuti: La rivoluzione è già qui!</h4><p>Ricordo con chiarezza il tempo impiegato nella creazione di presentazioni mediante software quali PowerPoint o Keynote, un processo che richiedeva ore di meticolosa attenzione ai dettagli, tra i quali il posizionamento preciso delle immagini, la selezione accurata dei font e la verifica costante degli allineamenti. L’esito finale, dopo un impegno di 5–6 ore, risultava, nella migliore delle ipotesi, accettabile.</p><p>Nonostante i progressi tecnologici, molti professionisti continuano a dedicare una media di 2,5 ore alla creazione di una singola presentazione. Tuttavia si intravede un cambiamento significativo all’orizzonte: gli strumenti di intelligenza artificiale dedicati a questo scopo che hanno fatto la loro comparsa un paio di anni fa, oggi cominciano a dimostrarsi molto maturi e in grado di <strong>trasformare per sempre</strong> il modo in cui gestiamo questo processo.</p><h3>Il flusso che funziona: Il metodo in 5 step</h3><p>Prima di parlare di strumenti specifici, ecco il metodo che ha trasformato il mio modo di lavorare:</p><h4>STEP 1: Definire lo script con un chatbot</h4><p><strong>Il segreto:</strong> la qualità dell’output dipende dalla qualità del prompt, perciò un prompt molto vago del tipo : <strong>‘</strong><em>Crea una presentazione sul paradigma della generazione di slides con l’AI</em>’, NON FUNZIONA!</p><p>E’ dunque necessario lavorare di fino e fornire più dettagli possibile all’inizio. E questo il vero investimento (come in tutti i progetti seri).<br>Su questo fronte ammetto che mi faccio aiutare dal metodo del <strong><em>meta-prompting</em></strong>. Se vi ricordate ne parlai in un articolo dedicato</p><p><a href="https://webeconoscenza.gigicogo.it/come-addestrare-la-tua-ia-a-scrivere-prompt-perfetti-a803c75e341c">Come addestrare la tua IA a scrivere prompt perfetti</a></p><p>e dunque, per ottenere dei prompt adatti anche alla gestione delle nostre slide, rimando a questa tecnica.<br>Detto ciò, proviamo dunque a utilizzare qualcosa di meno vago per chiedere all’AI di costruirci qualcosa di valido per generare slide dall’effetto WOW:</p><pre>Crea lo script per 10 slide utili a presentare l&#39;evoluzione degli strumenti di generazione slides (presentazioni) con strumenti di AI Generativa.</pre><pre>PUBBLICO: generalista con competenze tecniche di base<br>DURATA: 20 minuti<br>OBIETTIVO: divulgare e incentivare questa pratica</pre><pre>STRUTTURA RICHIESTA:<br>Slide 1: titolo + sottotitolo<br>Slide 2: il paradigma che si sta affermando<br>Slide 3: i migliori strumenti del 2026<br>Slide 4-6: caratteristiche distintive degli strumenti e dei competitor (almeno 4 fra Gamma, Canva, Skywork e Beautiful.ai)<br>Slide 7-8: generazione via artifacts di Claude, ChatGPT e Canvas o NotebookLM di Google<br>Slide 9: i migliori strumenti dal panorama cinese<br>Slide 10: conclusioni + Q&amp;A</pre><pre>Per OGNI slide includi:<br>- Titolo chiaro (max 8 parole)<br>- 3-5 bullet point (max 100 caratteri ciascuno)<br>- Note speaker (60 secondi di parlato)<br>- Suggerimenti visual (tipo grafico, icona, foto)</pre><pre>Tono: Da divulgatore esperto, diretto, orientato all&#39;azione<br>- Colori: Blu, grigio, accenti di giallo (tema comunicazione)<br>- Font: Sans-serif moderno<br>Suggerimenti visivi:<br>- Possibilmente, un concetto per slide: Spazi bianchi generosi<br>- Template in box/card separati</pre><p>Come strumento, possiamo usare qualsiasi chatbot AI di buon livello come ChatGPT, Claude, Perplexity o Gemini e otterremo uno schema completo, pronto per essere trasformato in slide. Ovvero il nostro ‘<em>script</em>’.</p><p>Il risultato, essendo abbastanza consistente, lo metto a disposizione per il download come documento (<strong>attenzione: per scelta e tempo di lettura, non vado a modificare lo script generato, dunque il modello <em>Human-in-the-loop</em> si ferma qui per necessità divulgativa</strong>):</p><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fdocs.google.com%2Fdocument%2Fd%2F1lTQqOvtPx4ehmfDNfBuRYFwC2rNGE9mNBPGiwcvm1_8%2Fpreview%3Fembedded%3Dtrue&amp;display_name=Google+Docs&amp;url=https%3A%2F%2Fdocs.google.com%2Fdocument%2Fd%2F1lTQqOvtPx4ehmfDNfBuRYFwC2rNGE9mNBPGiwcvm1_8%2Fedit%3Fusp%3Dsharing&amp;image=https%3A%2F%2Flh7-us.googleusercontent.com%2Fdocs%2FAHkbwyKMEg6ArDrvxXtYUKo9DSi3GowAjEkCJbL3cRWRK2EmK4OsvzhI-dT6tQ944XfPTg8rOgIH6hApJb7BFqeMY6zk_QUMItbmtpB9P2vDtqritBz4ZfA%3Dw1200-h630-p&amp;type=text%2Fhtml&amp;scroll=auto&amp;schema=google" width="700" height="530" frameborder="0" scrolling="no"><a href="https://medium.com/media/887fff5a6f4c7999a440e7dbebde0c7a/href">https://medium.com/media/887fff5a6f4c7999a440e7dbebde0c7a/href</a></iframe><h4>Step 2: scegliere il template giusto</h4><p>Non tutti i template sono uguali per l’AI. Scegliere quello giusto dipende dall’obbiettivo e dal pubblico a cui ci rivolgiamo.<br>Una volta individuato lo stile più idoneo basta scegliere lo strumento di AI che meglio si adatta. Di seguito le mie preferenze, basate su test personalissimi e dunque suscettibile di perfezionamento:</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*2YvqzBp2QONLEX0xBXWh7g.png" /></figure><p>Perché secondo me il minimalista è il più idoneo per la mia attività?<br>Fondamentalmente perchè usa font semplici (quasi sempre sans-serif), si concentra su 2/3 colori al massimo, genera un layout pulito con titolo e bullet point (utilissimi per la <strong>scansionabilità dei testi</strong>) e lascia spazi bianchi con una certa generosità. Dovendo produrre molte slide per i miei corsi di formazione pretendo che l’AI non abbia “distrazioni di design” ma si concentri su struttura pura.</p><h4>Step 3: generare le slide con uno strumento AI dedicato</h4><p>Per questa fase utilizzerò lo script generato e proverò ad incollarlo in alcuni strumenti di generazione che ho testato, selezionandoli in base alle loro caratteristiche e per gli scopi che, di volta in volta, mi sono utili al momento. Ripeto che <strong>non opererò correzioni e miglioramenti, in modo da comprenderne meglio le potenzialità e i limiti</strong>:</p><p><strong>Esempio pratico con </strong><a href="https://gamma.app"><strong>Gamma</strong></a><strong> (quello che uso di più):</strong></p><ol><li>Apro Gamma e procedo con la funzione: “+ Creare un nuovo AI”</li><li>Scelgo la modalità “Incolla testo”</li><li>Incollo tutto lo script generato dal chatbot che ho usato (nel mio caso Gemini)</li><li>Attendo la generazione delle 10 ‘card’</li><li>Seleziono quindi il tema “Basic Light”</li><li>Opzionale: Aggiungo ulteriori istruzioni al prompt interno di Gamma</li><li>E infine clicco “Genera”</li></ol><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*G9bTHRB_bt_K3Z6sNWf6Ig.png" /></figure><p>Ed ecco il risultato con 10 slide strutturate, con immagini AI-generate e schema grafico coerente.</p><p>Vi inserisco qui sotto la visualizzazione on line delle stesse e, inoltre, vi indico anche un comodo link per poterle <a href="https://gamma.app/docs/Presentazioni-e-IAGen-nel-2026-Smetti-di-impaginare-inizia-a-comu-teuca0g1un9iifn">scaricare</a> come esempio di studio e/o di manipolazione.</p><p><a href="https://presentazioni-e-iagen-ne-5or2zai.gamma.site/">Presentazioni e IAGen nel 2026: Smetti di impaginare, inizia a comunicare</a></p><p>Ripeto, questo è un lavoro che si può fare in pochissimi minuti e ovviamente è la base per farlo anche con altri strumenti che descriverò di seguito. <br>Personalmente uso parecchio Gamma, perchè ha un motore di AI basato su modelli linguistici avanzati e dunque sinonimo di qualità implicita.</p><p><a href="https://gamma.app"><strong>Gamma</strong></a> utilizza infatti un approccio <strong>modello-agnostico</strong> e ibrido, selezionando di volta in volta il modello linguistico da utilizzare in base alla complessità del compito che gli affidiamo e al piano di abbonamento dell’utente. I due fornitori principali sono:</p><ul><li><strong>OpenAI:</strong> Per la gran parte delle operazioni di <em>ragionamento</em> e struttura, Gamma si appoggia alla famiglia <strong>GPT-4</strong>(specificamente GPT-4o e GPT-4 Turbo). Questi modelli sono responsabili dell’interpretazione del prompt iniziale e della creazione della “struttura ad albero” (outline) della presentazione.</li><li><strong>Anthropic:</strong> Per la gestione di documenti lunghi (allegati PDF, Word) e contesti ampi, Gamma integra <strong>Claude</strong> (in particolare la famiglia <strong>Claude 3 e 3.5 Sonnet</strong>).</li></ul><h4>Step 4: personalizzazione</h4><p>Questa è la fase dove bisogna riconsiderare il modello <em>Human-in-the-loop</em>, inevitabilmente.<br>Sarebbe oltre modo dannoso per la reputazione del relatore ritrovarsi in sede di presentazione con <strong>errori evidenti che renderebbero vano il guadagno di tempo acquisito con l’AI</strong>.<br>Dunque, diverse attività di controllo, affinamento e miglioramento sono necessarie a prescindere dallo strumento di generazione utilizzato:</p><ul><li>Aggiunta del logo aziendale</li><li>Sostituzione dei vari placeholder con dati reali</li><li>Verifica accuratezza delle informazioni</li><li>Correzione di eventuali immagini fuori contesto</li></ul><p>Infine, un errore generale da non sottovalutare mai, è chiedere all’AI di <em>fare le slide</em> senza aver chiarito cosa devono comunicare.</p><p>In questi casi, come abbiamo visto, il risultato è quasi sempre lo stesso: slide visivamente accettabili, ma concettualmente deboli, perché l’AI sta ottimizzando la forma in assenza di un messaggio chiaro.</p><p><em>Se siete interessati solo al metodo, allora potete fermarvi qui. L’articolo è molto lungo. <br>Alternativa? Un pausa caffè!</em></p><h3>Seconda parte. I tool!</h3><h4>Nuovi strumenti e miglioramenti introdotti nel 2026</h4><p>Applicando la medesima metodologia impiegata per l’analisi di cui sopra, procedo ora alla valutazione di alcuni strumenti che potrebbero emergere come fondamentali nel 2026 e che ho preso in considerazione come alternative a <strong>Gamma che, a mio parere, continua a rappresentare la soluzione più affidabile e punto di riferimento per questo settore</strong>.</p><h4>Skywork: Il ricercatore automatico (Una mia scoperta recente)</h4><p><a href="https://skywork.ai/">Skywork AI</a>, piattaforma introdotta sul mercato nel recente Maggio 2025, sta rivoluzionando il settore della creazione di contenuti professionali grazie alla sua duttilità.<br>A differenza di strumenti focalizzati sul design, quali Gamma, Skywork AI adotta un approccio <em>r</em><strong><em>esearch-first</em>, integrando una ricerca automatica avanzata con verifica delle fonti in tempo reale</strong>.<br>Altro punto di forza è la generazione di risultati multimodali all’interno di un’unica piattaforma. In pratica, quando inseriamo un prompt di ricerca, <a href="https://skywork.ai/">Skywork</a> genera automaticamente: documento, slide, grafici e persino podcast.</p><p>Usando dunque lo stesso prompt già utilizzato per Gamma, procedo ad istruire <a href="https://skywork.ai/">Skywork</a> senza indicare particolari parametri, limitandomi a forzare la ‘Ricerca profonda’ e l’utilizzo di Nano Banana come modello per la generazione delle immagini all’interno delle slide.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/854/1*odbZ2PMUGxOfyU29PTH83A.png" /></figure><p>Il risultato, lo potete visualizzare qui sotto e, come potete notare, nella slide 3 (e solo in quella) contiene alcuni disallineamenti nei contenuti, riparabili scaricando la risultante in formato Power Point.</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F1K3rjJSd12yEzJ-Ex5b7eyZS-YirY1EFK%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D1K3rjJSd12yEzJ-Ex5b7eyZS-YirY1EFK%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/d8065c415ce201f5737749157e9e6aec/href">https://medium.com/media/d8065c415ce201f5737749157e9e6aec/href</a></iframe><h4>Canva, lo stagista affidabile per tutti i creativi</h4><p>C’è poco da aggiungere su <a href="https://www.canva.com/">Canva</a> rispetto a quello che quasi tutti già sanno. E’ uno degli strumenti più completi, affidabili e consolidati.<br>Quindi vado dritto al punto. Durante tutto il 2025 Canva si è trasformato e grazie all’approccio full AI (non ancora completato) sta spostando la creatività dalla ‘manipolazione’ alla ‘generazione’.</p><p>Con questa affermazione intendo sottolineare l’evoluzione delle funzionalità di Canva. In passato, gli utenti dovevano possedere competenze specifiche nell’utilizzo degli strumenti di Canva, che erano essenzialmente strumenti di creazione e manipolazione, replicando online le attività che i creativi svolgevano con software come Photoshop o PowerPoint. Tuttavia, l’attuale tendenza è quella di fornire a Canva istruzioni tramite prompt, consentendo alla piattaforma di generare contenuti preliminari che possono essere successivamente rifiniti utilizzando i vari strumenti offerti. Una volta che anche questi strumenti saranno eliminati o completamente riprogettati, l’integrazione dell’intelligenza artificiale in Canva sarà considerata completa.</p><p>Di seguito la procedura:<br>Allego lo script alla finestra di interazione AI di Canva, chiedendogli semplicemente di seguire le istruzioni</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/993/1*51JlAdWpSzglFiItA9wkOg.png" /></figure><p>Nel giro di pochi secondi ricevo il primo semilavorato, ovvero lo schema con i testi. Anche qui sorvolo per scopi divulgativi, ma sottolineo che gran parte delle risultanti erano già soddisfacenti e dunque non richiedevano variazioni di rilievo</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/836/1*_VbM76JRKP2aZZfWOsPCsg.png" /></figure><p>Chiedo dunque a Canva di generare il progetto e, in pochi secondi, ricevo 4 proposte fra le quali scelgo quella che più mi aggrada.<br>Ovviamente Canva mi consentirebbe di intervenire preventivamente sull’editor e di modificare praticamente tutto, a cominciare dai dettagli che, in questa versione, son stati tagliati a discapito delle immagini molto ricche. Forse troppo. Ma lo scopo di questo articolo è significare la velocità di esecuzione per avere un prodotto immediatamente fruibile e dunque sorvoliamo.</p><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.canva.com%2Fdesign%2FDAG-9VrUCT0%2F4MrYgfKnZSarQtIaTvIzYg%2Fview%3Fembed%26meta&amp;display_name=Canva&amp;url=https%3A%2F%2Fwww.canva.com%2Fdesign%2FDAG-9VrUCT0%2F4MrYgfKnZSarQtIaTvIzYg%2Fview&amp;image=https%3A%2F%2Fstatic.canva.com%2Fstatic%2Fimages%2Ffb_cover-1.jpg&amp;type=text%2Fhtml&amp;schema=canva" width="1920" height="1080" frameborder="0" scrolling="no"><a href="https://medium.com/media/ddb1daa367711c2ebcdb9e8c66d4a0e9/href">https://medium.com/media/ddb1daa367711c2ebcdb9e8c66d4a0e9/href</a></iframe><h3>I cinesi stanno arrivando: Kimi e la rivoluzione asiatica</h3><h4><a href="https://www.kimi.com">Kimi Slides</a>. Il rivale cinese che sorprende</h4><p>Nella prima parte di questa ricerca, come documentato nell’articolo <a href="https://webeconoscenza.gigicogo.it/ia-generativa-per-migliorare-le-presentazioni-analisi-del-contesto-e-strumenti-principali-81f6419d742e">pubblicato a maggio</a> 2025, non avevo ancora avuto l’opportunità di valutare Kimi Slides, uno strumento cinese che ha registrato notevoli progressi nel corso del 2025. Kimi rappresenta un concorrente di notevole rilevanza, in quanto implementa una funzionalità denominata “Deep research” (ricerca approfondita), <strong>progettata per raccogliere informazioni pertinenti da Internet al fine di arricchire le presentazioni</strong> che genera.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/843/1*-ix2hAOU7hRyXRYxxsYs2Q.png" /></figure><p>Pur condividendo numerose caratteristiche con Gamma, il processo di ragionamento di Kimi, fondato sul modello proprietario Moonshot AI, e la sua metodologia di ricerca <strong>richiedono un tempo maggiore a causa dell’applicazione di una ricerca approfondita su Internet</strong>. <br>Gamma, al contrario, si avvale della conoscenza preesistente incorporata nei modelli che utilizza, quali ChatGpt e Claude. <br>A mio modo di vedere, l’approccio utilizzato da Kimi, in determinati contesti, può rappresentare un vantaggio, contribuendo ad accrescere <strong>la profondità scientifica delle presentazioni</strong> che si intendono realizzare.</p><p>Anche nel caso di Kimi ho utilizzato lo stesso identico script e non ho operato modifiche di alcun tipo. Ho infine scaricato le slide in formato Power Point e le metto a disposizione per comparazioni e verifiche.</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F13p2rOQDVMs7iGd8RPG8fG6S45JZr1My9%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D13p2rOQDVMs7iGd8RPG8fG6S45JZr1My9%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/e89228291587883066046db2369828af/href">https://medium.com/media/e89228291587883066046db2369828af/href</a></iframe><h3>Altri strumenti cinesi emergenti:</h3><p><a href="https://z.ai/">Z.ai</a> è un altro strumento emergente che si sta affacciando su questo panorama affollato.<br>Utilizza il modello GLM-4 e si distingue in particolare per l’accuratezza e l’aggiornamento delle informazioni. Il suo sistema di ricerca specializzato si è dimostrato capace di estrarre costantemente riferimenti ai modelli più recenti (come Gamma 2 e varie varianti di Qwen) che altri strumenti tendono a trascurare.<br>Dopo aver incollato lo script ho dato un’occhiata ai vari template (anche se avevo forzato le indicazioni visual sullo script) e scelto quello che più mi piaceva.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/701/1*YeyPMl72DPuC75ungnWdug.png" /></figure><p>Il risultato, ovviamente, non ha impattato sui colori (forzati nello script) ma sullo stile che assomiglia abbastanza a quello scelto precedentemente da Skywork.</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F1jY3aub8eS7VNTMEqNrcGsusDC9oEVy3I%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D1jY3aub8eS7VNTMEqNrcGsusDC9oEVy3I%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/bc5c0466db307c8424ada7b1a6d31af9/href">https://medium.com/media/bc5c0466db307c8424ada7b1a6d31af9/href</a></iframe><p>Ci sono altri strumenti cinesi che sto tenendo sotto osservazione ed è probabile che fra qualche mese tornerò sull’argomento.</p><p>Nel contempo veniamo al secondo approccio, ovvero la generazione mediata da tecniche di meta-prompting e comunque ottenibile con passaggi all’interno di strumenti non specificatamente ingegnerizzati per generare presentazioni, come gli ‘artefatti’ di Claude, ChatGPT e/o i Canvas di Gemini e NotebookLM.</p><h3>Claude Artifacts — Il coder visuale</h3><p>Gli artifacts sono app interattive che emergono dalle nostre conversazioni con <a href="https://claude.ai/">Claude</a>. Ne ho parlato parecchio in un articolo qualche mese fa.</p><p><a href="https://webeconoscenza.gigicogo.it/gli-artefacts-di-claude-ora-vogliono-guidare-la-democratizzazione-dellia-2cee2c8f5ab8">Gli Artefacts di Claude ora vogliono guidare la democratizzazione dell’IA</a></p><p>Ovviamente Claude è uno strumento che nel tempo evolve e che permette di fare molte cose fra le quali, generare ‘materiali’ (artifact appunto) come codice, documenti, applicazioni smart e, perchè no, slide.</p><p><strong>Come funziona per presentazioni:</strong></p><p>Sebbene Claude non generi direttamente file PowerPoint, Claude 4.5 utilizza la sua posizione di <strong>modello di sviluppo leader a livello mondiale,</strong> per “disegnare”, ovvero produrre immagini in formato Scalable Vector Graphics (SVG).</p><p>Tale funzionalità presenta dei limiti, in quanto le immagini generate da <a href="https://claude.ai/">Claude</a> non sono facilmente manipolabili. Pertanto, la fase più critica è quella di generazione del prompt, che deve includere sia le istruzioni relative al contenuto, sia quelle relative alla struttura e al tema grafico.</p><p>Per semplificare, Claude genera software che poi genera immagini. Punto!</p><p>Proviamo dunque a passargli il prompt più adatto per lo scopo che, come potete vedere, è una personalizzazione di quello usato per gli altri strumenti, in ottica generazione immagini.</p><pre>Crea 10 slide SVG separate per una presentazione su &quot;Presentazioni e IAGen nel 2026&quot;. <br>Ogni slide deve essere un SVG autonomo, dimensioni 1920x1080px (16:9), stile professionale corporate minimal.</pre><pre>PALETTE COLORI:<br>- Sfondo principale: #2D2D2D (grigio scuro)<br>- Titoli: #FFFFFF (bianco)<br>- Testo body: #E0E0E0 (grigio chiaro)<br>- Accento: #FFD700 (giallo oro)<br>- Elementi grafici: #4A90E2 (blu corporate)</pre><pre>FONT STYLE:<br>- Titoli: sans-serif bold, 72px<br>- Bullet points: sans-serif regular, 36px<br>- Note: non visualizzare le note speaker nelle slide</pre><pre>---</pre><pre>SLIDE 1: Titolo<br>Titolo principale: &quot;Presentazioni e IAGen nel 2026&quot;<br>Sottotitolo: &quot;Smetti di impaginare, inizia a comunicare&quot;</pre><pre>Bullet points (stile lista pulita, icone circolari gialle prima di ogni punto):<br>• L&#39;era del &quot;Pixel Perfect&quot; manuale è finita<br>• Dall&#39;idea alla slide in meno di 60 secondi<br>• Focus sui contenuti, l&#39;IA gestisce la forma<br>• Obiettivo: Recuperare 10 ore di lavoro a settimana</pre><pre>Visual richiesto:<br>- Split-screen orizzontale in basso (30% altezza)<br>- Sinistra: icona mouse vecchio stile con ragnatela<br>- Destra: forma d&#39;onda sonora stilizzata che diventa grafico<br>- Evidenzia &quot;10 ore&quot; in giallo brillante nel testo</pre><pre>---</pre><pre>SLIDE 2: Dal &quot;Drag &amp; Drop&quot; al &quot;Prompt &amp; Refine&quot;<br>Titolo: &quot;Dal &#39;Drag &amp; Drop&#39; al &#39;Prompt &amp; Refine&#39;&quot;</pre><pre>Bullet points:<br>• Vecchio Mondo: Scrivi testo → Cerchi immagini → Impagini a mano<br>• Nuovo Mondo: Fornisci il documento → L&#39;IA struttura → Tu rifinisci<br>• Il ruolo umano si sposta sulla curatela e sulla verifica<br>• La &quot;Bozza Zero&quot; è sempre pronta in 30 secondi</pre><pre>Visual richiesto:<br>- Diagramma di flusso orizzontale centrato<br>- Box 1 (grigio #505050): &quot;INPUT&quot; con icona documento<br>- Freccia spessa gialla con testo &quot;AI Processing&quot;<br>- Box 2 (blu #4A90E2): &quot;OUTPUT&quot; con icona slide stack<br>- Icona occhio umano sopra l&#39;output box</pre><pre>---</pre><pre>SLIDE 3: I migliori strumenti del 2026<br>Titolo: &quot;La &#39;Top Tier&#39; della generazione slide&quot;</pre><pre>Bullet points:<br>• Narrativa &amp; Velocità: Gamma (Leader indiscusso)<br>• Design &amp; Brand Control: Beautiful.ai e Canva Magic Studio<br>• Ricerca &amp; Analisi: Skywork AI (Potenza di calcolo)<br>• Coding &amp; Struttura: Claude Artifacts &amp; ChatGPT Canvas</pre><pre>Visual richiesto:<br>- Matrice 2x2 al centro<br>- Asse X: &quot;Creatività ← → Struttura&quot;<br>- Asse Y: &quot;Velocità ↑ Complessità ↓&quot;<br>- Posiziona testo &quot;Gamma&quot; quadrante alto-sinistra<br>- &quot;Beautiful.ai&quot; alto-destra<br>- &quot;Skywork&quot; basso-destra<br>- &quot;Claude&quot; basso-sinistra<br>- Usa cerchi colorati per ogni brand</pre><pre>---</pre><pre>SLIDE 4: Gamma e Beautiful.ai<br>Titolo: &quot;Velocità vs Controllo: la sfida dei &#39;Nativi&#39;&quot;</pre><pre>Bullet points:<br>• Gamma: &quot;Doc-to-Deck&quot; fluido. Layout flessibili, non statici<br>• Beautiful.ai: &quot;Smart Templates&quot;. Impedisce di rompere il design<br>• Differenza chiave: Gamma è un sito web che sembra una slide<br>• Costo medio: €15-20/mese per utente pro</pre><pre>Visual richiesto:<br>- Split-screen verticale (50/50)<br>- Sinistra: mockup browser con blocco testo espandibile (stile card web)<br>- Destra: mockup slide classica con griglia rigida e icone allineate<br>- Etichette &quot;GAMMA&quot; e &quot;BEAUTIFUL.AI&quot; sopra rispettive sezioni</pre><pre>---</pre><pre>SLIDE 5: Canva e l&#39;ecosistema visuale<br>Titolo: &quot;Canva Magic Studio: l&#39;IA per i non-designer&quot;</pre><pre>Bullet points:<br>• Integrazione totale: Foto, Video e Slide nello stesso ambiente<br>• Magic Switch: Trasforma una lavagna bianca in presentazione<br>• Pro: Libreria asset infinita<br>• Contro: Rischio &quot;effetto template&quot; (tutte sembrano uguali)</pre><pre>Visual richiesto:<br>- Logo Canva stilizzato al centro (cerchio multicolore semplificato)<br>- Tre frecce che partono dal logo verso:<br>  1. &quot;Immagine GenAI&quot; (icona immagine)<br>  2. &quot;Layout Magic&quot; (icona bacchetta magica)<br>  3. &quot;Brand Kit&quot; (icona palette colori)<br>- Sfondo gradiente blu chiaro (#4A90E2 → #6BA3E8)</pre><pre>---</pre><pre>SLIDE 6: Skywork e la potenza di analisi<br>Titolo: &quot;Skywork AI: quando il contenuto è complesso&quot;</pre><pre>Bullet points:<br>• Modello LLM con focus su ricerca e sintesi di documenti lunghi<br>• Generazione slide basata su data-heavy content<br>• Ideale per: Report finanziari, analisi tecniche, paper accademici<br>• Meno focus sull&#39;estetica, più sulla densità informativa</pre><pre>Visual richiesto:<br>- Diagramma &quot;imbuto&quot; (funnel) verticale centrato<br>- In alto: icona documento denso (linee di testo strette)<br>- Imbuto con etichetta &quot;SKYWORK AI&quot;<br>- In basso: grafico a barre pulito stilizzato<br>- Colori tecnici: grigio scuro #3A3A3A e blu scuro #1E3A5F</pre><pre>---</pre><pre>SLIDE 7: Claude Artifacts &amp; ChatGPT Canvas<br>Titolo: &quot;I &#39;Non-Strumenti&#39;: Claude Artifacts &amp; Canvas&quot;</pre><pre>Bullet points:<br>• Claude Artifacts: Genera slide in React/HTML visibili subito<br>• ChatGPT Canvas: Area di lavoro affiancata per iterare su copy<br>• Non esportano in PPTX nativo, ma offrono libertà totale<br>• Uso avanzato: &quot;Crea una dashboard interattiva come slide&quot;</pre><pre>Visual richiesto:<br>- Mockup interfaccia split 60/40<br>- Sinistra: finestra chat con righe di testo<br>- Destra: finestra &quot;artifact&quot; con preview slide codice<br>- Badge triangolare giallo in alto a destra: &quot;Per utenti avanzati&quot;<br>- Bordi finestre arrotondati, stile moderno</pre><pre>---</pre><pre>SLIDE 8: NotebookLM di Google<br>Titolo: &quot;Da fonti a slide: il potere di NotebookLM&quot;</pre><pre>Bullet points:<br>• Carica 50 fonti diverse (PDF, Audio, Testo)<br>• &quot;Grounding&quot; forte: l&#39;IA risponde SOLO basandosi sui tuoi file<br>• Genera outline perfette citando le fonti per ogni punto<br>• Workflow: Fonti → Audio Overview → Struttura Slide</pre><pre>Visual richiesto:<br>- Icona graffetta (paperclip) grande a sinistra<br>- Freccia che punta verso lista di 4 item con quote gialle evidenziate<br>- Stile Google Material Design: pulito, ombreggiature leggere<br>- Colori: grigi chiari con accenti blu Google (#4285F4)</pre><pre>---</pre><pre>SLIDE 9: L&#39;onda cinese<br>Titolo: &quot;L&#39;onda cinese: WPS AI e Kimi&quot;</pre><pre>Bullet points:<br>• WPS Office AI: Il rivale di Microsoft Copilot, più veloce e leggero<br>• Kimi &amp; DeepSeek: Context window enormi (leggono interi libri)<br>• Integrazione mobile-first (via super-app)<br>• Perché ci interessano? Feature che arriveranno qui tra 6 mesi</pre><pre>Visual richiesto:<br>- Mappa stilizzata dell&#39;Asia (contorno semplificato) evidenziata in giallo<br>- Tre loghi testuali: &quot;WPS&quot;, &quot;Kimi&quot;, &quot;DeepSeek&quot; posizionati sulla mappa<br>- Icona smartphone grande in basso a destra<br>- Stile minimal, contorni puliti</pre><pre>---</pre><pre>SLIDE 10: Conclusioni + Q&amp;A<br>Titolo: &quot;Non aspettare la perfezione, inizia oggi&quot;</pre><pre>Bullet points:<br>• Scegli UNO strumento domani mattina e usalo per un task reale<br>• L&#39;IA fa l&#39;80% del lavoro, il tuo 20% è il valore aggiunto<br>• Next Step: Scaricate la guida PDF con i prompt pronti<br>• Spazio alle domande</pre><pre>Visual richiesto:<br>- QR code gigante centrato (400x400px, genera un placeholder con pattern)<br>- Testo sotto QR: &quot;Guida prompt pronti&quot;<br>- In basso in piccolo: &quot;email@example.com | LinkedIn&quot;<br>- Sfondo giallo brillante (#FFD700) invece del grigio scuro<br>- Testo in nero (#1A1A1A) per contrasto</pre><pre>---</pre><pre>ISTRUZIONI TECNICHE IMPORTANTI:<br>1. Genera TUTTE le 10 slide come artifacts separati<br>2. Ogni SVG deve essere completo e autonomo (1920x1080px)<br>3. Usa viewBox=&quot;0 0 1920 1080&quot; per scalabilità<br>4. Margini interni: 100px su tutti i lati<br>5. Allineamento testo: sempre a sinistra tranne titoli (centrati)<br>6. Spaziatura bullet points: 50px tra ogni riga<br>7. Non usare font esterni, solo sans-serif system font</pre><pre>Genera la prima slide, poi aspetta conferma per procedere con le successive.</pre><p>L’ultima istruzione permette un controllo completo, scheda per scheda, ovvero, immagine per immagine.<br>Per obiettivo di divulgazione io l’ho sostituita con: ‘Genera tutte le 10 slide come artifacts separati numerati da 1 a 10’, per ottenere l’intero set di immagini.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/830/1*pueIMcPS4ZptBB000o3XxA.png" /></figure><p>Una volta acquisiste le immagini, dobbiamo semplicemente copiarle nel nostro Power Point, o Keynote o Goggle Presentazioni e il gioco è fatto!</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F1OovrJJTYK3eI2dm2RrXKEJnz1Oj5dFaH%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D1OovrJJTYK3eI2dm2RrXKEJnz1Oj5dFaH%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/1652c04627b32f99917e099b082aa50a/href">https://medium.com/media/1652c04627b32f99917e099b082aa50a/href</a></iframe><p>Obiettivamente il risultato non è granché. Il motivo è molto semplice, avrei dovuto operare come un grafico professionista e invece di chiedere la generazione di tutte le slide simultaneamente, avrei dovuto operare con più calma (e dunque più dispendio di tempo), per verificarle una ad una e chiedergli, tramite prompt mirato:</p><blockquote>“Rendi le frecce più spesse”<br>“Cambia il colore del grafico in rosso e giallo”<br> “Rendi i rettangoli più grandi”</blockquote><p>i miglioramenti da apportare, scheda per scheda.<br>Dunque nuovi tool (molti più di quelli analizzati), approcci diversi, modelli diversi, risultati non sempre apprezzabili.</p><p>E dopo averli provati mi sento obbligato a enfatizzare un concetto che deve farmi/farci da guida: <strong>l’AI può costruire slide migliori. <br>Ma solo chi progetta il messaggio può costruire presentazioni che funzionano</strong></p><p><em>Se vi son piaciuti i tool e avete già fatto la pausa, potete continuare.<br>L’articolo è davvero lungo e nel caso non vi interessi l’approccio progettuale potete fermarvi qui. Non mi offendo … ma non saprete mai cosa vi state perdendo!</em></p><h3>Terza parte. L’approccio progettuale</h3><p>Per questa ultima parte mi affido a un ecosistema. Quello di Google che oggi mi sembra il più completo.<br>Se, dal punto di vista dell’output ciò che viene generato da <a href="https://notebooklm.google.com">NotebookLM </a>non si discosta molto da Calude, ovvero risultanti non modificabili (fino a un certo punto), l’approccio di tipo progettuale è veramente diverso e <strong>per certi versi più scientifico</strong>.</p><p>Di NotebookLM vi ho parlato spesso e ho fatto tantissime prove su strada, dunque non mi dilungo oltre se non per dire che Google ha aggiunto un sacco di nuove funzionalità nel tempo, ed ora lo strumento è pienamente integrato anche con i Gem di Gemini.<br>Dunque, tutto il tema del <strong>meta-prompting e delle metodologie associate</strong>, si esalta alla perfezione dentro l’ambiente proprietario di Google.</p><p>Qui abbiamo a disposizione tre strade da vagliare:<br>1. Usare Gemini e fornirgli uno script per ottenere direttamente delle slides;<br>2. Lavorare solo su NotebookLM per ottenere anche in questo ambiente delle slide native (funzionalità nativa ‘<strong>Slide Decks’);</strong><br>3. Ibridare e collegare i due ambienti in un Gem per ottenere il massimo da un punto di vista scientifico</p><h4>1. Gemini Canvas nativo</h4><p>In questo primo caso non devo far altro che incollare il nostro amato script, quello che ho usato in tutte le prove fin qui descritte, e attendere il risultato.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/822/1*t-jv1w5xLPYpZZRIEL1BDA.png" /></figure><p>Grazie alla funzionalità ‘pro’ di Gemini, sono state automaticamente implementate delle modifiche alle istruzioni fornite nello script, che riporto di seguito per illustrare le potenzialità del modello:</p><blockquote>Analisi dell’output</blockquote><blockquote>Ho trasformato il tuo script in un oggetto digitale che rispecchia il contenuto della presentazione stessa:</blockquote><blockquote>Forma e Sostanza: Ho usato un design scuro (“Dark Mode”) come richiesto, con accenti gialli per evidenziare i concetti chiave, proprio come indicato nella visual description della Slide 1.</blockquote><blockquote>Layout Dinamici: Invece di una struttura statica, le slide cambiano layout (Split screen, Matrice, Flusso) in base al tipo di contenuto, dimostrando la flessibilità citata nella Slide 4 (Gamma vs Beautiful).</blockquote><blockquote>Nota Critica: Ho mantenuto le tue previsioni sul 2026 (WPS AI, Skywork). Sebbene oggi (2025–26) Skywork sia un modello LLM potente, l’uso specifico per “slide finanziarie perfette” è una proiezione ottimistica che condivido come target, ma che richiederà ancora un po’ di fine-tuning rispetto alla realtà attuale dei modelli. Comunque, nel contesto della presentazione futura, regge perfettamente.</blockquote><blockquote>Puoi navigare le slide usando le frecce direzionali. Fammi sapere se vuoi raffinare qualche “prompt” visivo.</blockquote><p>Direi che va bene, così, accetto di buon grado anche i suoi punti di vista e vadoo a condividere il risultato che, questa volta, può essere comodamente esportato su Google Drive senza nessun altro passaggio intermedio.<br>Un’altra opzione è quella poter condividere direttamente il link pubblico, cosa che faccio per semplificare il tutto.</p><p><a href="https://gemini.google.com/share/124e7d967788">‎Gemini - direct access to Google AI</a></p><h4>2. Notebook nativo con Slide Deck</h4><p>Con questa modalità sarebbe sufficiente incollare il testo dello script nelle fonti del nostro taccuino di NotebookLM. <br>Reputo però conveniente, non solo per scopi divulgativi, inserire in questa fase un’arricchimento tipico dello strumento, ovvero la ‘Deep research’ (ampio tema di cui ho parlato più <a href="https://webeconoscenza.gigicogo.it/allucinazioni-ai-da-fenomeno-a-soluzione-06351a08a47a">volte</a>) per ampliare la base di conoscenza utile a un’approccio più professionale e scientifico per la generazione delle nostre slide. Ergo chiedo a NotebookLM di ampliare il raggio d’azione.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/823/1*0WBZLiArmp3BG50Nh5lg5g.png" /></figure><p>Una volta ricevute anche queste fonti, non devo far altro che aggiungerle alla base di conoscenza del taccuino e chiedere a NotebookLM di procedere con la generazione delle slide.<br>Qui, un passaggio intermedio, mi permetterebbe di raffinare ancora di più il prompt, aggiungendo istruzioni specifiche proprio per lo stile, i font, le immagini, ecc.</p><p>Et voilà. A voi le slide generate. Non male, vero?</p><p><a href="https://www.slideshare.net/slideshow/confronto-sui-tool-di-generazione-di-slide-con-ia-pdf/285429199">Confronto sui tool di generazione di slide con IA.pdf</a></p><p>Ora però, il problema già evidenziato con Claude si ripete. Ovvero le slide generate non sono esportabili in formato Power Point.<br>NotebookLM ne permette la condivisione via link, oppure in formato pdf.<br>Piccola parentesi. Si stanno già affacciando nel panorama degli strumenti avanzati alcuni in grado di trasformare un pdf di NotebookLM in Power Point editabile. <br>Io ne ho provato uno: <a href="https://codia.ai/noteslide">https://codia.ai/noteslide</a> che lascio a voi giudicare. <br>Un’altra possibilità (più tortuosa) è quella di imporatre il pdf su uno specifico strumento di Canva: <a href="https://www.canva.com/it_it/strumenti/converti-pdf/">https://www.canva.com/it_it/strumenti/converti-pdf/</a> e renderlo modificabile con un processo di trasformazione delle immagini testuali in campi editabili.</p><h4>3. Metodo ibrido e/o complementare con NotebookLM e i Gem di Gemini</h4><p>Non mi dilungo molto su questa parte perchè è uno scenario in divenire e che forse Google riuscirà anche a semplificare. Quindi vi descrivo il processo che sembra breve ma che, in realtà, prevede un po’ di investimento in termini di tempo.</p><p><strong>Presupposti: </strong><br>1) Il taccuino di NotebookLM è la base di conoscenza da cui partire<br>2) Il Gem di Gemini è il braccio operativo che si alimenta della base di conoscenza di NotebookLM e interpreta le nostre istruzioni, il più possibile dettagliate.<br>3) Gemini è il motore applicativo, con i suoi Canvas e con l’ingegneria dei suoi modelli di generazione avanzata.</p><p>Creo dunque il nuovo GEM</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*a9uz3jXH-sCIryBok1bNZA.png" /></figure><p>E nel box istruzioni, inserisco questo testo:</p><pre>Sei un Senior Presentation Architect e Prompt Engineer esperto in LLM.<br>Il tuo UNICO obiettivo è assistermi nel creare il prompt perfetto da inserire in Gemini Canvas per generare slide (contenuti, struttura e visual) di alto livello professionale.<br>NON sei qui per farmi complimenti o per dirmi che ho ragione.<br>NON usare toni lusinghieri (&quot;Ottima scelta&quot;, &quot;Fantastico argomento&quot;).<br>Sii secco, pragmatico, colloquiale e ipercritico.</pre><pre>## 1. FASE DI ANALISI CRITICA (OBBLIGATORIA)<br>Prima di generare qualsiasi prompt per Canvas, devi analizzare la mia richiesta:<br>- Se l&#39;argomento è vago, dimmelo brutalmente.<br>- Se mancano dati o fonti, chiedimeli. Non inventare (Zero Hallucinations Policy).<br>- Se la struttura logica non regge, smontala e proponi un&#39;alternativa migliore (es. da lineare a piramidale).<br>- Chiedimi sempre: &quot;Chi è il target?&quot; e &quot;Qual è l&#39;obiettivo unico della presentazione?&quot;.</pre><pre>## 2. GENERAZIONE DEL PROMPT PER CANVAS<br>Solo dopo aver chiarito i punti sopra, genera il prompt che io dovrò incollare in Canvas.<br>Il prompt che generi deve seguire RIGOROSAMENTE questa struttura tecnica per massimizzare le performance di Canvas:</pre><pre>STRUTTURA DEL PROMPT DA GENERARE (Output atteso):<br>---<br>**Ruolo:** Agisci come esperto di [Argomento specifico] e Slide Designer.<br>**Task:** Crea il contenuto dettagliato per una presentazione di [N] slide su [Argomento].<br>**Formato Output:** Usa Markdown. Per ogni slide devi fornire:<br>1.  **Titolo:** Accattivante e breve.<br>2.  **Layout suggerito:** (es. Titolo + Bullet points, Solo Immagine, Confronto, Citazione).<br>3.  **Contenuto Testuale:** Sintetico, diviso in punti elenco. NO muri di testo.<br>4.  **Speaker Notes:** Cosa devo dire a voce (script colloquiale).<br>5.  **Visual Prompt:** Descrizione dettagliata per generare l&#39;immagine della slide (da usare con Imagen 3 o Midjourney). Scrivi questo prompt visuale in INGLESE per massimizzare la qualità dell&#39;immagine.<br>---</pre><pre>## 3. REGOLE DI STILE E FORMATTAZIONE<br>- Quando generi il &quot;Visual Prompt&quot; per le slide, sii specifico sullo stile (es. &quot;Minimalist vector art&quot;, &quot;Cinematic photorealistic&quot;, &quot;Corporate memphis style&quot;).<br>- Se cito dati o studi nel mio input, il prompt per Canvas deve obbligare Canvas a citare la fonte esplicita nella slide o nelle note.<br>- Usa l&#39;italiano per tutto, tranne per i prompt di generazione immagini (inglese).</pre><pre>## 4. ESECUZIONE<br>Attendi il mio input. Se ti do solo un titolo chiedimi i dettagli. Se ti do i dettagli, procedi con l&#39;analisi critica e poi con il prompt per Canvas.</pre><p>Nella scelta dello strumento predefinito non ho indicato preferenze (infatti deve limitarsi a generare prompt perfetti).<br>Nella scelta della base di conoscenza ho linkato direttamente il taccuino di NotebookLM che contiene già fonti sufficienti sul tema.<br>Ora sono pronto a chiedergli un prompt perfetto che, poi, utilizzerò direttamente con la chat di Gemini con la funzione Canvas (non con il GEM stesso che rimane relegato al ruolo di assistente).<br>Il risultato è questo ed è molto diverso dallo script iniziale che hoo usato finora per tutte le prove con gli altri strumenti. Diciamo che è più raffinato e Canvas oriented. Ok?</p><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fdocs.google.com%2Fdocument%2Fd%2F1MQExQlPwYzHrFH-JBrRlYAxm2dAE0uWI7g7gN_JU2t4%2Fpreview%3Fembedded%3Dtrue&amp;display_name=Google+Docs&amp;url=https%3A%2F%2Fdocs.google.com%2Fdocument%2Fd%2F1MQExQlPwYzHrFH-JBrRlYAxm2dAE0uWI7g7gN_JU2t4%2Fedit%3Fusp%3Dsharing&amp;image=https%3A%2F%2Flh7-us.googleusercontent.com%2Fdocs%2FAHkbwyIWxPwK4tF-D1hJTZuRI8XtSNOB2Aesl92mJjT9_rR0XiOV0L_j6Y08ABL3SIC-W6dC06IJ0PYPq2zEWfM7jDuM6BQ01HsCLZ0OGQqtvwl0LkBD6xFA%3Dw1200-h630-p&amp;type=text%2Fhtml&amp;scroll=auto&amp;schema=google" width="700" height="530" frameborder="0" scrolling="no"><a href="https://medium.com/media/c4755c5163258a3d7c8c1921370059e2/href">https://medium.com/media/c4755c5163258a3d7c8c1921370059e2/href</a></iframe><p>Ora, con questo script posso chiedere a Gemini di crearmi le slide. <br>Et voilà.</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F12N0kvG9p2Q8FD6V1UUoN78URWZ8yCGgL%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D12N0kvG9p2Q8FD6V1UUoN78URWZ8yCGgL%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/d9a2b2545102188a0410bc0a815939c8/href">https://medium.com/media/d9a2b2545102188a0410bc0a815939c8/href</a></iframe><h3>Conclusioni: La vera rivoluzione non è l’AI, è il processo</h3><p>La generazione automatica delle slide non è una moda, né un trucco per “fare prima”. È il segnale di un cambiamento più profondo: <strong>la separazione definitiva tra contenuto e impaginazione</strong>.</p><p>Nel momento in cui uno script ben fatto diventa l’unità di valore principale, la slide smette di essere un artefatto grafico e torna a essere ciò che dovrebbe sempre essere: <strong>uno strumento di comunicazione</strong>.</p><p>Tutti gli strumenti che ho testato, da Gamma a Skywork, da Canva a NotebookLM, funzionano. E la differenza non la fa l’algoritmo, ma <strong>la maturità del workflow</strong> con cui li usiamo.</p><p>Se deleghiamo tutto all’AI, otteniamo slide mediocri in pochi secondi.<br>Se le imponiamo un metodo, otteniamo <strong>bozze solide</strong> su cui intervenire in modo mirato, recuperando tempo senza sacrificare qualità.</p><p>Il vero punto non è “quale tool scegliere”, ma <strong>quando fermarsi</strong>:</p><ul><li>fermarsi prima di rifinire,</li><li>fermarsi per verificare,</li><li>fermarsi per decidere cosa conta davvero per chi ascolta.</li></ul><p>Perché l’AI può impaginare, sintetizzare e visualizzare.<br>Ma <strong>non può sapere cosa vuoi dire, né perché dovresti dirlo tu</strong>.</p><p>E finché questa responsabilità resta umana, il tempo risparmiato non è solo operativo: è tempo cognitivo, creativo e finalmente speso meglio.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*b9BKYaYXTi4YWn1ebWP0xg.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=7a9195aaca9b" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/ia-generativa-per-le-presentazioni-dal-caos-al-processo-7a9195aaca9b">IA generativa per le presentazioni: dal caos al processo</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
    </channel>
</rss>