In Mentomy costruiamo IA aziendale basata sui 9 pilastri fondamentali dell'IA Responsabile, nel pieno rispetto del Regolamento Europeo sulla Protezione dei Dati (GDPR UE) e del Regolamento Europeo sull'IA (AI Act UE) dal nucleo architetturale e in ogni passo che compiamo.
L'Intelligenza Artificiale genera valore sostenibile solo quando è sicura, etica, trasparente e controllabile. In Mentomy, comprendiamo che la fiducia è il fondamento assoluto quando le organizzazioni integrano l'IA nelle operazioni aziendali critiche.
La nostra piattaforma IA privata per le aziende europee è costruita su un framework completo di IA Responsabile che non solo rispetta le normative come il GDPR e l'AI Act europeo, ma le supera attraverso un design architetturale dove la responsabilità è il principio guida di ogni decisione tecnica, commerciale ed etica.
Le aziende europee affrontano sfide uniche: normative rigide e in evoluzione, elevate aspettative di privacy da parte di clienti e dipendenti, e la necessità critica di mantenere la sovranità sui dati strategici sensibili.
Mentomy non è semplicemente un'altra piattaforma IA — siamo la prima soluzione IA aziendale progettata specificamente per il mercato europeo, dove privacy, sicurezza, trasparenza ed etica non sono funzionalità opzionali o marketing, ma l'architettura tecnica e legale fondamentale che garantisce il vostro successo a lungo termine.
Questa politica descrive con precisione tecnica e trasparenza assoluta come implementiamo ciascuno dei 9 pilastri dell'IA Responsabile, ordinati strategicamente per la loro importanza critica nella protezione della vostra organizzazione.
Prima di addentrarci nei dettagli tecnici e legali, spieghiamo in termini chiari cosa fa la nostra piattaforma.
Immaginate che la vostra azienda abbia un bibliotecario estremamente intelligente che ha letto tutti i vostri documenti interni: manuali, procedure, politiche, report, contratti, guide tecniche.
Quando fate una domanda come «Qual è la nostra politica ferie?» o «Come si configura il server di produzione?», questo bibliotecario:
Questo è Mentomy. Ma invece di un essere umano, è un sistema di Intelligenza Artificiale che lavora 24 ore su 24, 7 giorni su 7, risponde in secondi e lavora ESCLUSIVAMENTE con le informazioni della vostra organizzazione.
❌ Non è ChatGPT per le aziende: ChatGPT conosce informazioni generali da internet. Mentomy conosce solo I VOSTRI documenti.
❌ Non inventa risposte: Se l'informazione non è nei vostri documenti, Mentomy lo dice chiaramente invece di speculare.
❌ Non impara dai vostri dati: Le vostre conversazioni e documenti NON vengono MAI utilizzati per migliorare modelli IA di terze parti (OpenAI, Google, ecc.).
❌ Non condivide nulla: I vostri dati sono ermeticamente isolati. Le altre aziende che utilizzano Mentomy non possono vedere un solo carattere delle vostre informazioni.
Per chi desidera comprendere la tecnologia alla base di Mentomy, ecco i dettagli tecnici spiegati chiaramente.
Mentomy utilizza un'architettura chiamata RAG che combina due tecnologie:
Passo dopo Passo: Cosa Succede Quando Fate una Domanda
1. Caricamento Documenti (Cosa fate una volta sola):
vettore numerico (embedding)2. Quando Fate una Domanda:
vettore numerico3. Generazione della Risposta:
«Rispondete SOLO sulla base di questi documenti. Se l'informazione non è presente, ditelolo chiaramente»LLM puri (come ChatGPT standard): Rispondono basandosi su miliardi di parole da internet che hanno «memorizzato» durante l'addestramento. Possono inventare informazioni plausibili ma false (allucinazioni).
RAG (come Mentomy): Cerca prima nei VOSTRI documenti reali, poi formula la risposta basandosi SOLO su ciò che ha trovato. Le «allucinazioni» si riducono a quasi zero perché l'IA non può citare ciò che non esiste.
Risultato: Risposte che sono verificabili, accurate e radicate nella vostra realtà aziendale, non in informazioni generiche di internet.
I Vostri Dati, Sempre Riservati — Il Fondamento Assoluto e Inviolabile
La privacy non è una funzionalità aggiuntiva in Mentomy; è il fondamento architetturale dell'intera piattaforma. Comprendiamo che i vostri dati aziendali sono il vostro asset più prezioso e critico. Ogni componente, ogni riga di codice, ogni decisione tecnica è progettata con la privacy come principio guida assoluto e inviolabile.
Mentomy è pienamente conforme al Regolamento Generale sulla Protezione dei Dati (UE) 2016/679, implementando la privacy fin dalla progettazione e per impostazione predefinita in tutta l'architettura della piattaforma.
Ogni cliente opera in uno spazio di lavoro dedicato ermeticamente isolato a livello di infrastruttura fisica e logica. I vostri dati sensibili non vengono mai mescolati, incrociati o condivisi con quelli di altri clienti. Isolamento garantito tramite isolamento multi-livello del tenant.
Trattiamo solo i dati strettamente necessari per fornire il servizio (Art. 5.1.c GDPR). Non raccogliamo informazioni aggiuntive, metadati non necessari o dati di utilizzo oltre a ciò che è tecnicamente indispensabile. La minimizzazione dei dati come principio fondamentale di ingegneria.
Mentomy NON utilizza MAI i vostri dati per addestrare modelli fondazionali proprietari o di terze parti. I vostri dati vengono utilizzati esclusivamente per alimentare la vostra IA privata, sotto il vostro totale controllo. Garanzia contrattuale e tecnica assoluta.
Quando eliminate un file o una cartella, viene cancellato definitivamente e immediatamente da tutti i nostri server (server delle fonti dati, server del database clienti e server del database vettoriale).
Amministratori e utenti possono accedere e modificare le proprie informazioni personali disponibili in Mentomy, nonché accedere alle interazioni e alle query inviate al motore IA (cronologia della chat).
Amministratori e utenti possono correggere immediatamente e senza indebito ritardo dati inaccurati, incompleti o obsoleti attraverso interfacce di amministrazione in tempo reale.
Gli amministratori possono cancellare in modo permanente, completo e verificabile i dati personali degli utenti quando legittimamente richiesto.
Amministratori e utenti possono cancellare in modo completo e verificabile la memoria del sistema IA (memoria della chat).
Gli amministratori potranno esportare i dati in formati strutturati standard (Microsoft Excel, xlsx) e formati ampiamente utilizzati per il trasferimento diretto ad altri sistemi senza ostacoli tecnici o legali.
Amministratori e utenti possono legittimamente opporsi al trattamento dei propri dati per determinati scopi specifici, incluso il trattamento basato su interesse legittimo o a fini di marketing diretto.
Gli amministratori possono limitare temporaneamente il modo in cui i dati personali vengono trattati mentre vengono risolte richieste, controversie o verifiche di accuratezza, con chiara marcatura dei record limitati.
Manteniamo un protocollo di risposta agli incidenti robusto e documentato specifico per la privacy con team designati e procedure collaudate. Nel caso improbabile di una violazione dei dati personali che presenti un rischio per i diritti e le libertà, notificheremo all'autorità di controllo competente entro 72 ore dalla conoscenza, in conformità con l'Articolo 33 del GDPR.
Se la violazione presenta un rischio elevato per i diritti e le libertà, notificheremo direttamente agli interessati interessati senza indebito ritardo (Art. 34 GDPR), con comunicazione chiara sulla natura, le conseguenze, le misure adottate e i recapiti del DPO.
Protezione Multi-livello di Grado Militare per gli Asset Critici
La sicurezza dei vostri dati è la nostra massima priorità operativa. Implementiamo misure di cybersicurezza di livello enterprise in ogni strato dell'infrastruttura: dalla rete all'applicazione, attraverso database, API e processi di sviluppo. La difesa in profondità come strategia centrale inviolabile.
Implementiamo misure tecniche e organizzative appropriate ai sensi dell'Articolo 32 del GDPR per garantire una sicurezza del trattamento adeguata al livello di rischio, inclusa la riservatezza, l'integrità, la disponibilità e la resilienza dei sistemi e dei servizi.
I file caricati dagli amministratori sono archiviati in un bucket privato di Google Cloud Storage (GCS) situato nell'Unione Europea (Madrid), protetto da IAM granulare per tenant, crittografia AES-256 a riposo e VPC Service Controls
Gli embedding generati dall'IA sono archiviati in Pinecone Serverless (regione UE), in indici indipendenti per tenant per garantire l'isolamento multi-livello. Pinecone fornisce: crittografia dei dati a riposo (AES-256), TLS 1.3 end-to-end, controllo degli accessi basato su chiave API e protezione contro l'iniezione di vettori malevoli tramite validazione preventiva.
Le informazioni operative e i metadati — utenti, query, log, permessi — sono archiviati in un
database MySQL/PostgreSQL gestito in Google Cloud SQL con:
Crittografia nativa AES-256 a riposo
Crittografia TLS 1.3 in transito
Isolamento per istanza e VPC privato
Backup automatici
Regole firewall rigorose (accessibile solo dai servizi autorizzati)
Rotazione delle chiavi gestita da KMS
L'architettura applica l'isolamento a più livelli:
Isolamento logico dei file in GCS per azienda
Isolamento completo degli indici Pinecone (indice dedicato per tenant)
Record segmentati per azienda nel database SQL
Accesso tramite email aziendale per tenant, prevenendo l'accesso incrociato
Dal browser dell'utente a GCS, Pinecone e Cloud SQL, tutti i dati viaggiano e sono archiviati protetti con HTTPS, TLS 1.3, AES-256 e rigorosa validazione dell'integrità (HMAC). Mentomy non trasmette mai dati non crittografati né utilizza canali non sicuri.
Tutti i file vengono elaborati in memoria nel backend su GCP e sono soggetti a:
rilevamento di formati malevoli,
limiti su dimensione dei file, numero di file e spazio di archiviazione della knowledge base
sanificazione e validazione strutturale
controllo anti data-poisoning prima di generare gli embedding
Ciò impedisce che documenti manipolati influenzino il sistema o contaminino il database vettoriale.
Mentomy mantiene un rigoroso allineamento con i framework di sicurezza riconosciuti a livello internazionale e lavora attivamente verso certificazioni formali: ISO/IEC 27001:2022 (Gestione della Sicurezza delle Informazioni), SOC 2 Tipo II (controlli di sicurezza, disponibilità, riservatezza e integrità del trattamento), conformità con lo ENS (Schema Nazionale di Sicurezza spagnolo RD 311/2022) per le pubbliche amministrazioni, e allineamento con il NIST Cybersecurity Framework.
100% Unione Europea — I Vostri Dati NON Lasciano MAI l'Europa
Per le aziende europee, il controllo geografico dei dati non è opzionale — è fondamentale per la conformità, la sovranità digitale e la protezione contro la legislazione extraterritoriale. Mentomy garantisce la residenza al 100% dei dati nell'Unione Europea senza eccezioni, senza ambiguità, senza note a piè di pagina. I vostri dati rimangono su suolo europeo, sempre e per sempre.
Mantenendo i dati esclusivamente nell'UE, Mentomy elimina completamente i rischi e le complessità dei trasferimenti internazionali, evitando i requisiti per meccanismi di salvaguardia come le SCC, le BCR o le decisioni di adeguatezza che potrebbero essere invalidate giudizialmente (caso Schrems II).
L'intera knowledge base e i dati associati sono ospitati esclusivamente su server fisici situati all'interno dell'Unione Europea. Attualmente: Google Cloud Storage e database Google SQL situati a Madrid, Spagna (Europe-Southwest1), database vettoriale ospitato su Google Cloud Platform a Dublino, Irlanda (Europe-West-1), e motore IA ospitato su Amazon Web Services a Francoforte, Germania (eu-central-1).
I vostri dati non attraversano MAI i confini dell'UE in nessuna circostanza. Nessun trasferimento negli USA (il CLOUD Act non si applica), in Cina (legge nazionale sull'intelligence) o in qualsiasi giurisdizione terza. Nemmeno per backup o disaster recovery (siti DR anch'essi nell'UE).
Tutti i calcoli computazionali, l'indicizzazione degli embedding, le query LLM, le operazioni IA e l'elaborazione dei dati vengono eseguiti su infrastruttura fisicamente situata in territorio europeo. Nemmeno elaborazioni temporanee al di fuori dell'UE.
Mantenendo i dati esclusivamente nell'UE, eliminiamo completamente le complessità delle Clausole Contrattuali Standard (SCC Articolo 46.2.c), delle Norme Vincolanti d'Impresa (BCR Articolo 47), delle Valutazioni d'Impatto sul Trasferimento (TIA) o dei meccanismi di trasferimento internazionale che sono stati invalidati o contestati giudizialmente.
Architettura allineata con i requisiti dello Schema Nazionale di Sicurezza (Decreto Reale 311/2022, precedentemente RD 3/2010) applicabile alle pubbliche amministrazioni e ai fornitori del settore pubblico spagnolo che richiedono infrastruttura nazionale e sovranità sulle informazioni classificate.
Design tenendo conto dei requisiti del Regolamento IA (UE) 2024/1689 dalla fase di architettura, inclusa la trasparenza sulla localizzazione del trattamento (Art. 13), i log verificabili archiviati nell'UE (Art. 12) e la cooperazione con le autorità di vigilanza europee (Art. 70-73).
Consultateci per le normative specifiche dei settori critici: Sanità (MDR 2017/745, IVDR 2017/746, direttive e-health), Finanza (MiFID II, DORA, PSD2, linee guida EBA), Assicurazioni (Solvibilità II), Telecomunicazioni (ePrivacy), Difesa (classificazione nazionale).
Mentomy offre un'opzione di sovranità digitale europea rispetto ai fornitori statunitensi (Google, Amazon, Microsoft, OpenAI) soggetti al CLOUD Act, FISA 702, Executive Order 12333, o ai fornitori cinesi soggetti alla Legge sull'Intelligence Nazionale che potrebbero essere costretti a fornire dati a governi stranieri.
Selezione attenta di tutti i fornitori di servizi (LLM, cloud, database, CDN) con valutazione rigorosa di: (1) impegni contrattuali a non utilizzare i dati dei clienti per l'addestramento, (2) luogo di elaborazione e archiviazione, (3) legislazione applicabile e giurisdizione, (4) potenziale accesso governativo.
Se decidete di utilizzare il vostro server per l'archiviazione dei dati, possiamo integrarci completamente con i vostri dati con tariffe appropriate e senza attrito artificiale.
Come azienda europea con sede in Spagna, contribuiamo allo sviluppo dell'ecosistema tecnologico IA europeo, riducendo la dipendenza dai monopoli tecnologici stranieri, creando posti di lavoro qualificati in Europa e rispettando i principi di sovranità digitale della Strategia Digitale Europea.
Apertura Totale — Nessuna Scatola Nera, Nessuna Sorpresa, Nessuna Nota a Piè di Pagina
Crediamo nella trasparenza radicale su come funziona la nostra tecnologia, come elaboriamo i dati e quali limitazioni esistono. In un mondo in cui molti fornitori di IA operano come scatole nere impenetrabili, scegliamo la chiarezza assoluta. La trasparenza tecnica, commerciale ed etica come differenziatore competitivo fondamentale.
Implementiamo una trasparenza completa in conformità con l'AI Act europeo, fornendo informazioni chiare e comprensibili sul funzionamento, le capacità, le limitazioni e l'uso appropriato del sistema IA agli utenti e alle persone coinvolte.
Spiegazioni tecniche dettagliate (diagrammi di flusso dati, diagrammi architetturali) che documentano chiaramente come i dati fluiscono: dal caricamento iniziale → preelaborazione → suddivisione in chunk → generazione embedding → indicizzazione vettoriale → archiviazione → recupero → generazione → consegna della risposta.
Trasparenza totale sulla posizione fisica esatta dei dati. Attualmente: Google Cloud Storage e database Google SQL situati a Madrid, Spagna (Europe-Southwest1), database vettoriale ospitato su Google Cloud Platform a Dublino, Irlanda (Europe-West-1) e motore IA ospitato su Amazon Web Services a Francoforte, Germania (eu-central-1).
Rispondiamo alle domande dei clienti con onestà totale e brutale, anche quando la risposta non è quella che si aspettano o quella che ci avvantaggia commercialmente. Ammettiamo apertamente le limitazioni, gli errori e le aree di miglioramento. La fiducia a lungo termine è più preziosa di una vendita a breve termine.
I clienti possono richiedere informazioni aggiuntive su qualsiasi aspetto del loro trattamento dati, delle decisioni architetturali, delle configurazioni di sicurezza o del funzionamento interno del sistema in qualsiasi momento, ricevendo una risposta documentata tecnicamente dettagliata (eccetto i segreti commerciali fondamentali che proteggono la proprietà intellettuale).
Quando commettiamo errori (tecnici come bug critici, operativi come interruzioni non pianificate, comunicativi come documentazione errata), li riconosciamo pubblicamente senza scuse, spieghiamo la causa principale con un dettagliato post-mortem e comunichiamo le misure correttive implementate in modo trasparente e tempestivo.
Contratti scritti in un linguaggio comprensibile ai non giuristi, senza gergo legale confuso e non necessario. Politiche spiegate in termini aziendali reali con esempi concreti. Documenti legali in linguaggio chiaro come principio, integrati da versioni legali formali quando necessario per l'applicabilità.
Struttura dei costi completamente chiara: costi di archiviazione, costi dei token e costi delle chiamate API se applicabili, senza addebiti nascosti, senza sorprese di fatturazione, senza aumenti unilaterali senza preavviso (90 giorni). Calcolatori dei costi disponibili prima del contratto per una stima precisa.
Notifica preventiva obbligatoria (minimo 30 giorni per modifiche sostanziali, 90 giorni per modifiche significative ai prezzi/termini) delle modifiche alla piattaforma, alle politiche, ai termini di servizio o alla struttura dei prezzi, con opt-out disponibile ove legalmente applicabile e chiara spiegazione degli impatti.
Procedura di cancellazione semplice e diretta senza dark pattern: self-service nel dashboard, efficace alla fine del periodo di fatturazione, senza periodi di vincolo contrattuale abusivi (impegno annuale massimo negoziabile), con esportazione completa dei dati garantita 30 giorni prima della chiusura definitiva dell'account.
IA Comprensibile — Ogni Risposta ha Fonti Verificabili e Ragionamento Verificabile
Le decisioni dell'IA non devono essere scatole nere misteriose e impenetrabili. Forniamo una trasparenza tecnica completa su come vengono generate le risposte, con piena tracciabilità verso documenti di origine specifici. In Mentomy, potete sempre capire, verificare, controllare e mettere in discussione esattamente perché l'IA ha risposto in un certo modo.
Forniamo spiegazioni significative sulla logica applicata nelle risposte IA, in conformità con lo spirito del GDPR sulle decisioni automatizzate e i requisiti specifici dell'AI Act sulla spiegabilità per i sistemi ad alto rischio e la documentazione tecnica.
Con ogni risposta, Mentomy fornisce le fonti dati originali (file) utilizzate per generare la risposta. Gli utenti possono cliccare e aprire direttamente quelle fonti dati, verificando l'accuratezza dell'interpretazione e comprendendo le sfumature che l'IA potrebbe aver semplificato nella sua risposta sintetica.
Nella visualizzazione delle fonti dati (attualmente documenti PDF), evidenziamo automaticamente con un colore distintivo le sezioni e le frasi specifiche che l'IA ha utilizzato direttamente per costruire la sua risposta, consentendo una rapida verifica visiva dell'accuratezza delle citazioni e della fedeltà alla fonte originale senza parafrasi eccessive.
Visualizziamo metriche di confidenza/similarità (punteggi di similarità coseno 0-1) che indicano matematicamente quanto è rilevante la fonte dati recuperata rispetto alla query effettuata, consentendo una valutazione oggettiva della confidenza. Il punteggio può avere valori da 0 a 1, con 1 che rappresenta la massima rilevanza/corrispondenza possibile.
Per ogni risposta, l'IA restituisce una spiegazione/giustificazione del perché è stata data quella risposta e di come ci si è arrivati. Ad esempio: «Questa risposta si basa sulla sezione 1.4 intitolata 'Politica Ferie' che afferma che il numero di giorni di ferie è 22.»
Gli amministratori possono esaminare la cronologia completa delle query degli utenti della propria organizzazione, filtrata per un intervallo di date. Questo report include: la data e l'ora esatte dell'interazione, l'utente responsabile, le domande poste e le risposte generate dall'IA. Queste informazioni sono scaricabili in Microsoft Excel (xlsx).
Gli amministratori possono esaminare la cronologia completa delle interazioni degli utenti della propria organizzazione su Mentomy. I report disponibili includono: dati demografici (accessi in un intervallo di tempo), interazione (durata della sessione) e feedback (pulsante 'Mi piace' o 'Non mi piace'). Queste informazioni sono scaricabili in Microsoft Excel (xlsx).
Mantenete il Controllo Totale — L'IA è il Vostro Strumento, Non il Vostro Padrone
L'IA deve sempre essere uno strumento che controllate completamente, mai un sistema autonomo che opera senza supervisione umana. In Mentomy, l'essere umano è sempre il decisore finale. Implementiamo controlli granulari che garantiscono che l'IA operi esattamente secondo le vostre specifiche, i vostri permessi e le vostre politiche organizzative.
Implementiamo robusti meccanismi di supervisione umana in conformità con i requisiti dell'AI Act europeo per i sistemi ad alto rischio, assicurando che le persone fisiche possano comprendere, intervenire e supervisionare efficacemente il sistema IA.
Definite ruoli precisi (Admin / Utente) con permessi specifici e granulari per l'accesso a cartelle, documenti, funzionalità e API. La vostra IA risponde solo con le informazioni che l'utente è esplicitamente autorizzato a visualizzare secondo la matrice di permessi configurata.
Organizzate la vostra knowledge base in strutture gerarchiche per diversi team, progetti attivi/archiviati, livelli di riservatezza (pubblico, interno, riservato, segreto) o esigenze aziendali specifiche con ereditarietà e override dei permessi.
I permessi possono essere modificati, sospesi o revocati istantaneamente con effetto immediato (<1 secondo) sulle capacità dell'IA senza latenza o finestre di propagazione. Critico per casi di cessazione del rapporto di lavoro, cambio di ruolo o incidenti di sicurezza.
Definite politiche di conservazione personalizzate: per quanto tempo i dati vengono conservati (giorni, mesi, anni), quando vengono automaticamente archiviati nel cold storage, quando vengono eliminati definitivamente.
Quando si eliminano file o cartelle, vengono cancellati definitivamente e istantaneamente da tutti i nostri server.
Potete mettere in pausa temporaneamente o disattivare completamente la vostra istanza IA in qualsiasi momento senza penali contrattuali, con la possibilità di riattivarla in seguito mantenendo tutte le impostazioni, i dati e i permessi esattamente come erano. Utile per audit o cambiamenti organizzativi.
In Mentomy, siete il proprietario assoluto e indiscutibile del vostro sistema IA. Non prendiamo decisioni unilaterali sulla vostra configurazione, i vostri dati o le vostre politiche senza il vostro previo consenso esplicito. L'IA facilita le informazioni, fornisce suggerimenti e raccomandazioni basate sui dati, ma non prende mai decisioni aziendali critiche né agisce autonomamente senza la vostra supervisione diretta e il vostro consenso informato.
Questo principio di supremazia del controllo umano è inviolabile nella nostra architettura tecnica, contrattuale ed etica, in conformità con l'Articolo 14 dell'AI Act che richiede una supervisione umana efficace per i sistemi ad alto rischio.
Framework Etico Completo — IA Allineata con i Valori Umani Fondamentali
Al di là della conformità legale minima, siamo guidati da profondi principi etici che garantiscono che la nostra IA benefici la società e rispetti la dignità umana fondamentale. L'etica non è uno strato superficiale cosmetico aggiunto alla fine — è il fondamento filosofico che guida il nostro design tecnico, le nostre decisioni di prodotto e il modo in cui ci relazioniamo con clienti, dipendenti e società.
Il nostro framework etico si allinea con i principi internazionali stabiliti da organizzazioni multilaterali e autorità etiche riconosciute, impegnandosi nello sviluppo e nell'implementazione di IA che rispetti i diritti umani fondamentali, la dignità, l'autonomia e il benessere sociale.
L'IA di Mentomy è uno strumento per assistere e potenziare le capacità umane, NON una sostituzione del processo decisionale umano in questioni significative. Gli utenti mantengono sempre il controllo finale e l'autorità decisionale sulle decisioni importanti. Non progettiamo IA per manipolare, persuadere coercitivamente o sfruttare le vulnerabilità cognitive o emotive umane.
Ci impegniamo proattivamente a impedire che la nostra tecnologia causi danni a individui, gruppi vulnerabili o alla società in generale. Valutazione sistematica obbligatoria dei rischi etici prima del lancio di nuove funzionalità significative. Considerazione speciale esplicita dei potenziali impatti sulle popolazioni vulnerabili (bambini, anziani, persone con disabilità cognitive).
Aspiriamo genuinamente a generare valore netto positivo per la società europea, non solo benefici commerciali privati a breve termine. Democratizzazione dell'accesso alla conoscenza all'interno delle organizzazioni. Contributo alla sovranità digitale europea riducendo la dipendenza dai monopoli stranieri. Ottimizzazione dell'uso delle risorse computazionali per minimizzare l'impronta carbonica e l'impatto ambientale.
Assumiamo esplicita responsabilità morale e, quando legalmente applicabile, per il comportamento dei nostri sistemi IA e le loro prevedibili conseguenze. Canali chiari per la segnalazione di problemi etici. Protocollo formale per la rapida indagine e correzione delle questioni etiche identificate. Chiarezza contrattuale sulla divisione delle responsabilità legali tra Mentomy e i clienti utenti finali.
Mentomy non facilita, non abilita tecnicamente né partecipa in alcun modo a sistemi indiscriminati di sorveglianza di massa delle popolazioni, a sistemi intrusivi di punteggio sociale in stile social credit, o al controllo autoritario dei cittadini che viola i diritti fondamentali alla privacy e alla libertà. Rifiutiamo attivamente i casi d'uso che riteniamo eticamente problematici anche se tecnicamente legali.
Non progettiamo funzionalità specificamente orientate verso un monitoraggio invasivo eccessivo dei dipendenti che violi la dignità lavorativa o la privacy sul posto di lavoro. L'uso di sistemi IA per la gestione delle risorse umane deve essere trasparente per i lavoratori, consentito quando legalmente richiesto, e rispettare i diritti fondamentali del lavoro inclusa la protezione contro la discriminazione algoritmica nell'assunzione/licenziamento/promozione.
Implementiamo controlli tecnici e educhiamo i clienti a rispettare il diritto d'autore dei contenuti nelle knowledge base. Guidiamo proattivamente i clienti sull'uso legale appropriato del materiale protetto da copyright, le limitazioni del fair use e i rischi di violazione. Non facilitiamo consapevolmente la pirateria o la violazione sistematica dei diritti di proprietà intellettuale.
Lavoro tecnico attivo e continuo per impedire che i nostri sistemi perpetuino, amplifichino o codifichino algoritmicamente le discriminazioni sociali esistenti presenti nei documenti di input storici o nei contesti culturali. Ciò include il rilevamento del linguaggio discriminatorio nelle risposte, dei pregiudizi nel ranking e delle raccomandazioni che potrebbero comportare un trattamento sfavorevole ingiustificato.
Divieto contrattuale assoluto di utilizzare la piattaforma per: generare contenuti discriminatori o discorsi d'odio, creare disinformazione deliberata su larga scala (campagne di disinformazione), produrre deepfake non consensuali con intento malevolo, facilitare la manipolazione psicologica dannosa o qualsiasi uso che inciti alla violenza, alle molestie o al danno contro individui o gruppi protetti.
Comunichiamo onestamente quali complessi problemi etici non abbiamo ancora risolto pienamente in modo soddisfacente, quali inevitabili compromessi etici dobbiamo affrontare (ad es., trasparenza vs. riservatezza, equità individuale vs. di gruppo) e quali aree richiedono più ricerca e innovazione. Non affermiamo di avere risposte perfette a tutti i dilemmi etici dell'IA avanzata.
Accuratezza, Veridicità e Robustezza — IA che Funziona Anche sotto Pressione
Ci sforziamo ossessivamente di garantire che le risposte dell'IA siano accurate, verificabili, radicate in dati reali e che il sistema operi in modo affidabile anche in condizioni avverse. La veridicità significa un rigoroso ancoraggio alle fonti. La robustezza significa un funzionamento stabile e prevedibile sotto carico, guasti parziali o tentativi di manipolazione.
Implementiamo misure tecniche per garantire un'accuratezza, robustezza e cybersicurezza appropriate del sistema IA in conformità con l'AI Act, inclusi test esaustivi, validazione continua e la capacità di operare in modo affidabile e sicuro per tutto il suo ciclo di vita.
Tutte le risposte vengono costruite ESCLUSIVAMENTE sulla base dei documenti della knowledge base del cliente utilizzando l'architettura RAG (Retrieval-Augmented Generation), riducendo drasticamente le tipiche allucinazioni dei LLM puri che generano informazioni plausibili ma inventate senza ancoraggio fattuale. Ancoraggio obbligatorio al contesto recuperato.
Ogni affermazione fattuale nelle risposte include un riferimento esplicito specifico a un documento di origine con un hyperlink diretto su cui l'utente può fare clic e consultare immediatamente per verificare l'accuratezza, il contesto completo e rilevare interpretazioni errate o semplificazioni eccessive dell'IA. Zero affermazioni senza supporto documentario.
Metriche di confidenza rigorosamente basate su punteggi di similarità quantitativi tra query e documenti recuperati (similarità coseno nello spazio di embedding), che indicano oggettivamente quanto sia sicura l'IA riguardo all'accuratezza della sua risposta: Alta confidenza (>0,85), Media (0,7-0,85), Bassa (<0,7 - avviso all'utente di verificare con attenzione).
L'IA viene istruita specificatamente tramite prompt di sistema e fine-tuning comportamentale per ammettere onestamente quando NON dispone di informazioni sufficienti nella knowledge base, invece di inventare o speculare con risposte fabricate. Frasi come «Non ho trovato informazioni specifiche su...», «I documenti disponibili non coprono...», «Avrei bisogno di più contesto per...»
Design tecnico specificamente ottimizzato per minimizzare le allucinazioni: recupero robusto con reranking (BGE cross-encoder), ancoraggio al contesto rigoroso nei prompt (istruzioni esplicite: «Rispondete SOLO sulla base del contesto fornito»), prompt di sistema che penalizzano severamente le generazioni non ancorate e validazione post-elaborazione che rileva incongruenze tra risposta e contesto.
In Mentomy eseguiamo test su base periodica. Per farlo, utilizziamo benchmark curati manualmente con ground truth nota per valutare accuratezza, rilevanza, coerenza, completezza e assenza di allucinazioni nelle risposte nel tempo e con gli aggiornamenti del sistema.
Revisione periodica sistematica da parte di esperti umani specifici del dominio delle risposte generate in casi d'uso critici (compliance, legale, finanza, medico, sicurezza) con feedback strutturato attraverso rubriche quantitative, identificando casi limite problematici e alimentando miglioramenti ai prompt e al recupero.
Meccanismi integrati nell'interfaccia utente (pollice su/giù, segnalazione, commenti dettagliati) per consentire agli utenti finali di segnalare risposte errate, incomplete, distorte o problematiche, con un processo di revisione umana che indaga la causa principale, corregge il problema specifico e alimenta iterativamente miglioramenti continui al sistema.
Monitoraggio continuo automatizzato dei KPI critici: rilevanza media del recupero (obiettivo >0,80), tasso di risposte senza fonti sufficienti (obiettivo <5%), latenza end-to-end (<10s), soddisfazione degli utenti (sondaggio CSAT), con alert automatici in caso di degrado significativo.
IA Giusta ed Equa — Nessun Pregiudizio, Nessuna Discriminazione, Nessun Favoritismo
L'equità è essenziale per evitare decisioni distorte o trattamenti ingiusti sistematici. Ci impegniamo attivamente a garantire che la nostra IA tratti tutti gli utenti e i casi d'uso in modo equo, senza discriminazioni basate su caratteristiche protette, senza pregiudizi algoritmici ingiustificati e senza favorire artificialmente determinati risultati rispetto ad altri.
Implementiamo misure tecniche e organizzative per prevenire la discriminazione illecita e promuovere l'equità in conformità con i requisiti dell'AI Act sulla non discriminazione, i test con dati rappresentativi e la mitigazione dei pregiudizi che potrebbero risultare in un trattamento sfavorevole ingiustificato di individui o gruppi.
Lavoriamo esclusivamente con fornitori di LLM (Mistral AI) che dimostrano impegni pubblici documentati e verificabili per una mitigazione completa dei pregiudizi nei loro processi di addestramento di massa (filtraggio di dati tossici, RLHF con valutatori diversificati, red teaming estensivo), valutazione continua (benchmark di equità come BBQ, BOLD) e trasparenza sui limiti noti.
Utilizzando esclusivamente la knowledge base fornita e curata dal cliente (documenti aziendali, politiche interne, knowledge base professionali) tramite architettura RAG, riduciamo significativamente i rischi di pregiudizi esterni indesiderati introdotti da massicci dataset di addestramento internet che inevitabilmente contengono pregiudizi sociali storici.
Conduciamo test periodici programmati (mensili) con insiemi deliberatamente diversificati di casi d'uso: diverse industrie (tecnologia, sanità, finanza, legale), tipologie di query (fattuale, analitica, creativa) e, quando rilevante per il dominio, scenari che coprono dati demografici variati, identificando e correggendo i comportamenti distorti tramite aggiustamenti dei prompt, del recupero o dei modelli.
Revisione sistematica umana esperta + automatizzata (strumenti NLP di rilevamento dei pregiudizi) delle risposte generate per rilevare potenziali pattern di pregiudizi in: linguaggio utilizzato (linguaggio di genere, stereotipi), raccomandazioni o prioritizzazioni ingiustificate, sovra-rappresentazione di certe prospettive rispetto ad altre, con correzione tramite prompt engineering o fine-tuning quando vengono rilevati pregiudizi sistematici.
Documentiamo apertamente e onestamente i pregiudizi noti inerenti ai modelli fondazionali LLM utilizzati (ad es., pregiudizi linguistici verso l'inglese, sovra-rappresentazione delle prospettive occidentali, prestazioni asimmetriche tra diverse demografiche) e le loro limitazioni in determinati contesti culturali, linguistici o specifici del dominio, senza affermare di aver completamente «risolto» il problema dei pregiudizi nell'IA.
Il nostro sistema RBAC (Controllo degli Accessi Basato sui Ruoli) si fonda esclusivamente su criteri organizzativi legittimi e funzionali (ruolo lavorativo, dipartimento, progetto, livello di riservatezza), MAI su caratteristiche personali protette dalla legge (razza, genere, religione, orientamento sessuale, origine nazionale, età, disabilità). Garanzie a livello architetturale contro la discriminazione.
Supportiamo le principali lingue europee (spagnolo, inglese, francese, tedesco, italiano, portoghese) con qualità di risposta equivalente testata tramite benchmark multilingui, evitando le barriere linguistiche nell'accesso alle informazioni aziendali critiche e promuovendo l'inclusione dei lavoratori non madrelingua nella lingua aziendale dominante.
L'IA non favorisce artificialmente determinati documenti, fonti privilegiate o risposte rispetto ad altri eccetto per la rilevanza tecnica oggettiva misurata algoritmicamente tramite punteggi di similarità nello spazio vettoriale. Non c'è nessun «boosting» manuale di determinati contenuti, autori o dipartimenti. Ranking puro basato sulla rilevanza semantica matematica.