Glossario AI – sempre aggiornato


L’intelligenza artificiale è ormai entrata nel linguaggio quotidiano di startup, investitori, sviluppatori, aziende e regolatori. Il problema è che molte parole vengono usate in modo impreciso: LLM, agenti, RAG, fine-tuning, allucinazioni, embedding, guardrail. Termini tecnici che finiscono nei pitch deck, nei comunicati stampa e nelle demo di prodotto, spesso senza una definizione condivisa.

Questo glossario nasce per mettere ordine. Non è un dizionario accademico, ma uno strumento operativo per leggere meglio il mercato AI, valutare le promesse delle startup e capire cosa c’è davvero dietro una soluzione tecnologica. Le definizioni sono pensate per founder, manager, product team, investitori e professionisti che lavorano con l’innovazione digitale.

Il glossario sarà aggiornato continuamente, perché il lessico dell’AI cambia insieme ai modelli, alle architetture software, alle normative e ai casi d’uso. Nuovi termini entreranno, alcune definizioni verranno affinate, altre diventeranno meno centrali. Nell’AI, anche le parole hanno una shelf life.

AGI

Artificial General Intelligence. Indica, in senso ampio, un sistema capace di svolgere molte attività cognitive con prestazioni paragonabili o superiori a quelle umane. È un termine utile nel dibattito strategico, molto meno in una roadmap di prodotto. Per un founder è meglio dire cosa fa davvero il sistema: classifica ticket, genera report, scrive codice, esegue ricerche, automatizza back office.

È il regolamento europeo sull’intelligenza artificiale. Introduce un approccio basato sul rischio per sviluppatori e deployer: rischio inaccettabile, alto rischio, rischio di trasparenza, rischio minimo o nullo. Per le startup europee non è un tema da lasciare al legal all’ultimo miglio. Incide su documentazione tecnica, logging, supervisione umana, trasparenza e gestione dei dati.

AI agent

È un sistema che usa un modello per pianificare ed eseguire azioni, spesso tramite tool esterni: API, database, browser, CRM, ERP, sistemi di ticketing. La differenza rispetto a un chatbot è l’azione. Un agente non si limita a rispondere; può aprire un ticket, aggiornare un record, calcolare un prezzo o orchestrare un processo.

AI generativa

È la famiglia di sistemi che produce testo, immagini, audio, video, codice o dati sintetici a partire da input dell’utente. Per una startup non è una categoria di marketing, ma una scelta di architettura: cambia costi di calcolo, UX, responsabilità legali e metriche di prodotto. Un conto è integrare una API per generare descrizioni e-mail, un altro è costruire un workflow che prende decisioni operative su clienti, pagamenti o dati sanitari.

AI governance

È l’insieme di policy, ruoli, controlli, logging, audit e processi con cui un’organizzazione gestisce l’uso dell’AI. Include valutazioni di rischio, documentazione, responsabilità interne, controllo degli accessi, monitoraggio degli output e procedure di escalation. Per le startup B2B diventa rilevante già in fase di vendita enterprise: molte aziende clienti non comprano solo il prodotto, comprano anche il modo in cui il rischio viene gestito.

Allucinazione

È un output plausibile ma falso, non supportato dai dati disponibili. Può essere un nome inventato, una citazione inesistente, una formula sbagliata o una policy aziendale mai approvata. Il punto non è solo tecnico. In customer care, legaltech, healthtech o fintech, un’allucinazione può diventare rischio operativo, reclamo o violazione di compliance.

API

Application Programming Interface. È l’interfaccia con cui un prodotto software comunica con un modello o con una piattaforma AI esterna. Per una startup è spesso il modo più rapido per integrare funzionalità generative senza gestire direttamente infrastruttura, training e serving del modello.

Benchmark

È un test usato per confrontare modelli, sistemi o configurazioni su task specifici. Va letto con prudenza: un buon punteggio su un benchmark non garantisce buone prestazioni nel prodotto reale. Dataset interno, user journey, latenza e costo per task contano spesso più della leaderboard.

Chain of thought

È il processo di ragionamento intermedio che un modello può usare per arrivare a una risposta. Nel prodotto finale non sempre deve essere mostrato all’utente. Per applicazioni enterprise è più utile esporre fonti, passaggi verificabili e audit trail, non una lunga spiegazione apparentemente razionale.

Chunking

È la divisione di documenti lunghi in blocchi più piccoli prima di inserirli in un sistema RAG o in un vector database. La qualità del chunking incide molto sulla qualità delle risposte: blocchi troppo corti perdono contesto, blocchi troppo lunghi aumentano rumore e costo.

Closed model

È un modello proprietario accessibile tramite API o piattaforma, senza pesi pubblici. Offre vantaggi su manutenzione, aggiornamenti e performance gestite dal provider, ma crea dipendenza tecnica e commerciale. Per una startup significa valutare lock-in, margine lordo e portabilità.

Context window

È la quantità massima di testo, istruzioni, cronologia e documenti che il modello può considerare in una singola richiesta. Una finestra più ampia permette task più ricchi, come analizzare contratti o report lunghi, ma non elimina il problema della selezione delle informazioni. Inserire tutto nel prompt spesso costa troppo e peggiora il segnale. Serve retrieval, non accumulo.

Data poisoning

È una manipolazione dei dati usati per addestrare, aggiornare o alimentare un sistema AI. Nei sistemi RAG può avvenire anche inserendo documenti malevoli nella knowledge base o nel vector database. Il rischio non riguarda solo il training: anche una fonte contaminata nel retrieval può condizionare l’output.

Dataset

È l’insieme di dati usato per training, fine-tuning, valutazione o retrieval. Nei prodotti AI il dataset non è solo materia prima: è parte del vantaggio competitivo. Qualità, licenze, aggiornamento, provenienza e copertura dei casi limite incidono direttamente sul valore del prodotto.

Distillation

È una tecnica con cui un modello più piccolo viene addestrato a replicare parte del comportamento di un modello più grande. Serve a ridurre costo, latenza e requisiti infrastrutturali. È rilevante per startup che vogliono spostare funzionalità AI su dispositivi, ambienti edge o workflow ad alto volume.

Embedding

Un embedding trasforma testo o altri contenuti in vettori numerici. La sua utilità sta nella ricerca semantica: trovare contenuti simili per significato, non solo per keyword. Gli embedding sono usati per search, clustering, raccomandazioni, anomaly detection, classificazione e misurazione della similarità.

Evals

Sono test strutturati per misurare qualità, accuratezza, robustezza e regressioni del sistema. Una startup che lavora seriamente sull’AI non può affidarsi solo a demo riuscite. Servono dataset di valutazione, casi limite, golden answers, metriche di factuality, toxicity, refusal rate, latency e cost per task.

Few-shot learning

È l’uso di pochi esempi nel prompt per guidare il comportamento del modello. È utile quando il team vuole controllare formato, tono o struttura della risposta senza passare subito al fine-tuning. Funziona bene per stabilizzare output ricorrenti, ma non sostituisce evals e controllo qualità.

Fine-tuning

È l’adattamento di un modello tramite dati addizionali. Serve quando il problema non è solo recuperare…


#Adessonews seleziona nella rete articoli di particolare interesse.
Se vuoi leggere l’articolo completo clicca sul seguente link
 Redazione Startup-news

Source link

Di