Na Mentomy construímos IA empresarial baseada nos 9 pilares fundamentais da IA Responsável, em total conformidade com o Regulamento Europeu de Proteção de Dados (RGPD UE) e o Regulamento Europeu de IA (AI Act UE) desde o núcleo arquitetónico e em cada passo que damos.
A Inteligência Artificial só gera valor sustentável quando é segura, ética, transparente e controlável. Na Mentomy, compreendemos que a confiança é o fundamento absoluto quando as organizações integram a IA nas operações empresariais críticas.
A nossa plataforma de IA privada para empresas europeias é construída sobre um framework abrangente de IA Responsável que não só cumpre regulamentos como o RGPD e o AI Act europeu, mas os supera através de um design arquitetónico onde a responsabilidade é o princípio orientador de cada decisão técnica, comercial e ética.
As empresas europeias enfrentam desafios únicos: regulamentos rigorosos e em evolução, elevadas expectativas de privacidade por parte de clientes e colaboradores, e a necessidade crítica de manter a soberania sobre dados estratégicos sensíveis.
A Mentomy não é apenas mais uma plataforma de IA — somos a primeira solução de IA empresarial concebida especificamente para o mercado europeu, onde a privacidade, segurança, transparência e ética não são funcionalidades opcionais ou marketing, mas a arquitetura técnica e jurídica fundamental que garante o vosso sucesso a longo prazo.
Esta política descreve com precisão técnica e transparência absoluta como implementamos cada um dos 9 pilares da IA Responsável, ordenados estrategicamente pela sua importância crítica para a proteção da vossa organização.
Antes de entrar nos detalhes técnicos e jurídicos, explicamos em termos claros o que faz a nossa plataforma.
Imagine que a vossa empresa tem um bibliotecário extremamente inteligente que leu todos os vossos documentos internos: manuais, procedimentos, políticas, relatórios, contratos, guias técnicos.
Quando fazem uma pergunta como «Qual é a nossa política de férias?» ou «Como se configura o servidor de produção?», este bibliotecário:
Isso é a Mentomy. Mas em vez de um ser humano, é um sistema de Inteligência Artificial que trabalha 24 horas por dia, 7 dias por semana, responde em segundos e trabalha EXCLUSIVAMENTE com as informações da vossa organização.
❌ Não é o ChatGPT para empresas: O ChatGPT conhece coisas gerais da internet. A Mentomy conhece apenas OS VOSSOS documentos.
❌ Não inventa respostas: Se a informação não estiver nos vossos documentos, a Mentomy diz isso claramente em vez de especular.
❌ Não aprende com os vossos dados: As vossas conversas e documentos NUNCA são utilizados para melhorar modelos de IA de terceiros (OpenAI, Google, etc.).
❌ Não partilha nada: Os vossos dados estão hermeticamente isolados. Outras empresas que utilizam a Mentomy não conseguem ver um único carácter das vossas informações.
Para quem deseja compreender a tecnologia por trás da Mentomy, aqui estão os detalhes técnicos explicados de forma clara.
A Mentomy utiliza uma arquitetura chamada RAG que combina duas tecnologias:
Passo a Passo: O que Acontece Quando Fazem uma Pergunta
1. Carregamento de Documentos (O que fazem uma única vez):
vetor numérico (embedding)2. Quando Fazem uma Pergunta:
vetor numérico3. Geração da Resposta:
«Responda APENAS com base nestes documentos. Se a informação não estiver presente, diga-o claramente»LLMs puros (como o ChatGPT padrão): Respondem com base em biliões de palavras da internet que «memorizaram» durante o treino. Podem inventar informações plausíveis mas falsas (alucinações).
RAG (como a Mentomy): Pesquisa primeiro nos VOSSOS documentos reais, depois formula a resposta com base APENAS no que foi encontrado. As «alucinações» são reduzidas a quase zero porque a IA não pode citar o que não existe.
Resultado: Respostas que são verificáveis, precisas e ancoradas na vossa realidade empresarial, não em informações genéricas da internet.
Os Vossos Dados, Sempre Confidenciais — O Fundamento Absoluto e Inviolável
A privacidade não é uma funcionalidade adicional na Mentomy; é o fundamento arquitetónico de toda a nossa plataforma. Compreendemos que os vossos dados empresariais são o vosso ativo mais valioso e crítico. Cada componente, cada linha de código, cada decisão técnica é concebida com a privacidade como princípio orientador absoluto e inviolável.
A Mentomy cumpre integralmente o Regulamento Geral sobre a Proteção de Dados (UE) 2016/679, implementando a privacidade desde a conceção e por predefinição em toda a arquitetura da plataforma.
Cada cliente opera num espaço de trabalho dedicado hermeticamente isolado ao nível da infraestrutura física e lógica. Os vossos dados sensíveis nunca são misturados, cruzados ou partilhados com os de outros clientes. Isolamento garantido através de isolamento multi-nível de tenant.
Tratamos apenas os dados estritamente necessários para prestar o serviço (Art. 5.1.c RGPD). Não recolhemos informações adicionais, metadados desnecessários ou dados de utilização além do que é tecnicamente indispensável. A minimização dos dados como princípio fundamental de engenharia.
A Mentomy NUNCA utiliza os vossos dados para treinar modelos fundacionais próprios ou de terceiros. Os vossos dados são utilizados exclusivamente para alimentar a vossa própria IA privada, sob o vosso controlo total. Garantia contratual e técnica absoluta.
Quando eliminam um ficheiro ou pasta, é apagado permanente e imediatamente de todos os nossos servidores (servidor de fontes de dados, servidor de base de dados de clientes e servidor de base de dados vetorial).
Administradores e utilizadores podem aceder e modificar as suas informações pessoais disponíveis na Mentomy, bem como aceder às interações e consultas enviadas ao motor de IA (histórico de chat).
Administradores e utilizadores podem corrigir imediatamente e sem demora injustificada dados inexatos, incompletos ou desatualizados através de interfaces de administração em tempo real.
Os administradores podem eliminar de forma permanente, completa e verificável os dados pessoais dos utilizadores quando legitimamente solicitado.
Administradores e utilizadores podem eliminar de forma completa e verificável a memória do sistema de IA (memória do chat).
Os administradores poderão exportar dados em formatos estruturados padrão (Microsoft Excel, xlsx) e formatos amplamente utilizados para transferência direta para outros sistemas sem obstáculos técnicos ou jurídicos.
Administradores e utilizadores podem legitimamente opor-se ao tratamento dos seus dados para determinados fins específicos, incluindo o tratamento baseado em interesse legítimo ou para fins de marketing direto.
Os administradores podem limitar temporariamente a forma como os dados pessoais são tratados enquanto consultas, disputas ou verificações de exatidão estão a ser resolvidas, com marcação clara dos registos restritos.
Mantemos um protocolo de resposta a incidentes robusto e documentado específico para privacidade com equipas designadas e procedimentos testados. No caso improvável de uma violação de dados pessoais que apresente um risco para os direitos e liberdades, notificaremos a autoridade de controlo competente no prazo de 72 horas após tomar conhecimento, em conformidade com o Artigo 33 do RGPD.
Se a violação apresentar um risco elevado para os direitos e liberdades, notificaremos diretamente os titulares dos dados afetados sem demora injustificada (Art. 34 RGPD), com comunicação clara sobre a natureza, consequências, medidas tomadas e dados de contacto do DPO.
Proteção Multi-camada de Grau Militar para Ativos Críticos
A segurança dos vossos dados é a nossa máxima prioridade operacional. Implementamos medidas de cibersegurança de nível empresarial em cada camada da infraestrutura: da rede à aplicação, através de bases de dados, APIs e processos de desenvolvimento. A defesa em profundidade como estratégia central inviolável.
Implementamos medidas técnicas e organizacionais adequadas em conformidade com o Artigo 32 do RGPD para garantir a segurança do tratamento adequada ao nível de risco, incluindo confidencialidade, integridade, disponibilidade e resiliência dos sistemas e serviços.
Os ficheiros carregados pelos administradores são armazenados num bucket privado do Google Cloud Storage (GCS) localizado na União Europeia (Madrid), protegido por IAM granular por tenant, encriptação AES-256 em repouso e VPC Service Controls
Os embeddings gerados pela IA são armazenados em Pinecone Serverless (região UE), em índices independentes por tenant para garantir isolamento multi-nível. O Pinecone fornece: encriptação de dados em repouso (AES-256), TLS 1.3 end-to-end, controlo de acesso baseado em chave API e proteção contra injeção de vetores maliciosos através de validação prévia.
Informações operacionais e metadados — utilizadores, consultas, logs, permissões — são armazenados numa
base de dados MySQL/PostgreSQL gerida no Google Cloud SQL com:
Encriptação nativa AES-256 em repouso
Encriptação TLS 1.3 em trânsito
Isolamento por instância e VPC privada
Backups automáticos
Regras de firewall rigorosas (acessível apenas a partir de serviços autorizados)
Rotação de chaves gerida por KMS
A arquitetura aplica isolamento em múltiplas camadas:
Isolamento lógico de ficheiros no GCS por empresa
Isolamento completo dos índices Pinecone (índice dedicado por tenant)
Registos segmentados por empresa na base de dados SQL
Acesso via email empresarial por tenant, prevenindo o acesso cruzado
Do browser do utilizador ao GCS, Pinecone e Cloud SQL, todos os dados viajam e são armazenados protegidos com HTTPS, TLS 1.3, AES-256 e validação rigorosa de integridade (HMAC). A Mentomy nunca transmite dados não encriptados nem utiliza canais não seguros.
Todos os ficheiros são processados em memória dentro do backend no GCP e estão sujeitos a:
deteção de formatos maliciosos,
limites no tamanho dos ficheiros, número de ficheiros e espaço de armazenamento da base de conhecimento
sanitização e validação estrutural
controlo anti data-poisoning antes de gerar embeddings
Isto impede que documentos manipulados afetem o sistema ou contaminem a base de dados vetorial.
A Mentomy mantém um alinhamento rigoroso com frameworks de segurança reconhecidos internacionalmente e trabalha ativamente para obter certificações formais: ISO/IEC 27001:2022 (Gestão de Segurança da Informação), SOC 2 Tipo II (controlos de segurança, disponibilidade, confidencialidade e integridade do tratamento), conformidade com o ENS (Esquema Nacional de Segurança espanhol RD 311/2022) para administrações públicas, e alinhamento com o NIST Cybersecurity Framework.
100% União Europeia — Os Vossos Dados NUNCA Saem da Europa
Para as empresas europeias, o controlo geográfico dos dados não é opcional — é fundamental para a conformidade, soberania digital e proteção contra legislação extraterritorial. A Mentomy garante 100% de residência dos dados na União Europeia sem exceções, sem ambiguidades, sem letras pequenas. Os vossos dados permanecem em solo europeu, sempre e para sempre.
Ao manter os dados exclusivamente na UE, a Mentomy elimina completamente os riscos e complexidades das transferências internacionais, evitando os requisitos para mecanismos de salvaguarda como as CCT, as BCR ou as decisões de adequação que podem ser invalidadas judicialmente (caso Schrems II).
Toda a vossa base de conhecimento e dados associados estão alojados exclusivamente em servidores físicos localizados dentro da União Europeia. Atualmente: Google Cloud Storage e base de dados Google SQL em Madrid, Espanha (Europe-Southwest1), base de dados vetorial alojada no Google Cloud Platform em Dublin, Irlanda (Europe-West-1), e motor de IA alojado na Amazon Web Services em Frankfurt, Alemanha (eu-central-1).
Os vossos dados NUNCA atravessam as fronteiras da UE em nenhuma circunstância. Sem transferências para os EUA (o CLOUD Act não se aplica), China (lei nacional de inteligência) ou qualquer jurisdição terceira. Nem mesmo para backups ou recuperação de desastres (sites DR também na UE).
Todos os cálculos computacionais, indexação de embeddings, consultas LLM, operações de IA e processamento de dados são executados em infraestrutura fisicamente localizada em território europeu. Nem sequer processamento temporário fora da UE.
Ao manter os dados exclusivamente na UE, eliminamos completamente as complexidades das Cláusulas Contratuais Tipo (CCT Artigo 46.2.c), das Regras Vinculativas para as Empresas (BCR Artigo 47), das Avaliações de Impacto das Transferências (AIT) ou dos mecanismos de transferência internacional que foram invalidados ou contestados judicialmente.
Arquitetura alinhada com os requisitos do Esquema Nacional de Segurança (Decreto Real 311/2022, anteriormente RD 3/2010) aplicável às administrações públicas e fornecedores do setor público espanhol que requerem infraestrutura nacional e soberania sobre informações classificadas.
Design tendo em conta os requisitos do Regulamento de IA (UE) 2024/1689 desde a fase de arquitetura, incluindo transparência sobre a localização do tratamento (Art. 13), logs auditáveis armazenados na UE (Art. 12) e cooperação com as autoridades de supervisão europeias (Art. 70-73).
Consulte-nos para regulamentos específicos de sectores críticos: Saúde (MDR 2017/745, IVDR 2017/746, diretivas e-health), Finanças (MiFID II, DORA, PSD2, diretrizes EBA), Seguros (Solvência II), Telecomunicações (ePrivacy), Defesa (classificação nacional).
A Mentomy oferece uma opção de soberania digital europeia face aos fornecedores norte-americanos (Google, Amazon, Microsoft, OpenAI) sujeitos ao CLOUD Act, FISA 702, Executive Order 12333, ou fornecedores chineses sujeitos à Lei Nacional de Inteligência que podem ser obrigados a fornecer dados a governos estrangeiros.
Seleção cuidadosa de todos os fornecedores de serviços (LLM, cloud, bases de dados, CDN) com avaliação rigorosa de: (1) compromissos contratuais de não utilizar dados de clientes para treino, (2) localização de processamento e armazenamento, (3) legislação aplicável e jurisdição, (4) potencial acesso governamental.
Se decidirem utilizar o vosso próprio servidor para armazenamento de dados, podemos integrar-nos completamente com os vossos dados com taxas adequadas e sem fricção artificial.
Como empresa europeia com sede em Espanha, contribuímos para o desenvolvimento do ecossistema tecnológico de IA europeu, reduzindo a dependência de monopólios tecnológicos estrangeiros, criando empregos qualificados na Europa e cumprindo os princípios de soberania digital da Estratégia Digital Europeia.
Abertura Total — Sem Caixas Negras, Sem Surpresas, Sem Letras Pequenas
Acreditamos na transparência radical sobre como a nossa tecnologia funciona, como tratamos os dados e que limitações existem. Num mundo em que muitos fornecedores de IA operam como caixas negras impenetráveis, escolhemos a clareza absoluta. Transparência técnica, comercial e ética como diferenciador competitivo fundamental.
Implementamos transparência abrangente em conformidade com o AI Act europeu, fornecendo informações claras e compreensíveis sobre o funcionamento, capacidades, limitações e uso adequado do sistema de IA a utilizadores e pessoas afetadas.
Explicações técnicas detalhadas (diagramas de fluxo de dados, diagramas de arquitetura) que documentam claramente como os dados fluem: do carregamento inicial → pré-processamento → divisão em chunks → geração de embeddings → indexação vetorial → armazenamento → recuperação → geração → entrega da resposta.
Transparência total sobre a localização física exata dos dados. Atualmente: Google Cloud Storage e base de dados Google SQL em Madrid, Espanha (Europe-Southwest1), base de dados vetorial alojada no Google Cloud Platform em Dublin, Irlanda (Europe-West-1) e motor de IA alojado na Amazon Web Services em Frankfurt, Alemanha (eu-central-1).
Respondemos às perguntas dos clientes com honestidade total e brutal, mesmo quando a resposta não é o que esperam ou o que nos beneficia comercialmente. Admitimos abertamente limitações, erros e áreas de melhoria. A confiança a longo prazo é mais valiosa do que uma venda a curto prazo.
Os clientes podem solicitar informações adicionais sobre qualquer aspeto do seu tratamento de dados, decisões de arquitetura, configurações de segurança ou funcionamento interno do sistema a qualquer momento, recebendo uma resposta documentada tecnicamente detalhada (exceto segredos comerciais fundamentais que protegem a propriedade intelectual).
Quando cometemos erros (técnicos como bugs críticos, operacionais como tempo de inatividade não planeado, de comunicação como documentação incorreta), reconhecemo-los publicamente sem desculpas, explicamos a causa raiz com um post-mortem detalhado e comunicamos as medidas corretivas implementadas de forma transparente e atempada.
Contratos escritos em linguagem compreensível para não juristas, sem jargão jurídico confuso e desnecessário. Políticas explicadas em termos empresariais reais com exemplos concretos. Documentos jurídicos em linguagem simples como princípio, complementados por versões jurídicas formais quando necessário para a exequibilidade.
Estrutura de custos completamente clara: custos de armazenamento, custos de tokens e custos de chamadas API se aplicável, sem encargos ocultos, sem surpresas de faturação, sem aumentos unilaterais sem aviso prévio (90 dias). Calculadoras de custos disponíveis antes do contrato para estimativa precisa.
Notificação prévia obrigatória (mínimo de 30 dias para alterações materiais, 90 dias para alterações significativas de preços/termos) de alterações à plataforma, políticas, termos de serviço ou estrutura de preços, com opt-out disponível onde legalmente aplicável e explicação clara dos impactos.
Procedimento de cancelamento simples e direto sem padrões obscuros: self-service no dashboard, efetivo no final do período de faturação, sem períodos de bloqueio contratual abusivos (compromisso anual máximo negociável), com exportação completa de dados garantida 30 dias antes do encerramento definitivo da conta.
IA Compreensível — Cada Resposta tem Fontes Verificáveis e Raciocínio Auditável
As decisões da IA não devem ser caixas negras misteriosas e impenetráveis. Fornecemos transparência técnica abrangente sobre como as respostas são geradas, com rastreabilidade completa a documentos de origem específicos. Na Mentomy, podem sempre compreender, verificar, auditar e questionar exatamente por que razão a IA respondeu de determinada forma.
Fornecemos explicações significativas sobre a lógica aplicada nas respostas de IA, em conformidade com o espírito do RGPD sobre decisões automatizadas e os requisitos específicos do AI Act sobre explicabilidade para sistemas de alto risco e documentação técnica.
Com cada resposta, a Mentomy fornece as fontes de dados originais (ficheiros) utilizadas para gerar a resposta. Os utilizadores podem clicar e abrir diretamente essas fontes de dados, verificando a precisão da interpretação e compreendendo nuances que a IA pode ter simplificado na sua resposta sintética.
Na visualização das fontes de dados (atualmente documentos PDF), destacamos automaticamente com uma cor distinta as secções e frases específicas que a IA utilizou diretamente para construir a sua resposta, permitindo uma rápida verificação visual da precisão das citações e da fidelidade à fonte original sem paráfrases excessivas.
Apresentamos métricas de confiança/similaridade (pontuações de similaridade coseno 0-1) que indicam matematicamente quão relevante é a fonte de dados recuperada para a consulta efetuada, permitindo uma avaliação objetiva da confiança. A pontuação pode ter valores de 0 a 1, sendo 1 a relevância/correspondência máxima possível.
Para cada resposta, a IA devolve uma explicação/justificação de por que razão foi dada essa resposta e como foi alcançada. Por exemplo: «Esta resposta baseia-se na secção 1.4 intitulada 'Política de Férias' que indica que o número de dias de férias é 22.»
Os administradores podem rever o histórico completo de consultas dos utilizadores da sua organização, filtrado por um intervalo de datas. Este relatório inclui: a data e hora exatas da interação, o utilizador responsável, as perguntas colocadas e as respostas geradas pela IA. Esta informação é descarregável para Microsoft Excel (xlsx).
Os administradores podem rever o histórico completo de interações dos utilizadores da sua organização na Mentomy. Os relatórios disponíveis incluem: dados demográficos (acessos num intervalo de tempo), interação (duração da sessão) e feedback (botão 'Gosto' ou 'Não gosto'). Esta informação é descarregável para Microsoft Excel (xlsx).
Mantêm o Controlo Total — A IA é a Vossa Ferramenta, Não o Vosso Mestre
A IA deve ser sempre uma ferramenta que controlam completamente, nunca um sistema autónomo a operar sem supervisão humana. Na Mentomy, o ser humano é sempre o decisor final. Implementamos controlos granulares que garantem que a IA opera exatamente de acordo com as vossas especificações, permissões e políticas organizacionais.
Implementamos mecanismos robustos de supervisão humana em conformidade com os requisitos do AI Act europeu para sistemas de alto risco, garantindo que as pessoas singulares possam compreender, intervir e supervisionar eficazmente o sistema de IA.
Definam funções precisas (Admin / Utilizador) com permissões específicas e granulares para aceder a pastas, documentos, funcionalidades e APIs. A vossa IA responde apenas com informações que o utilizador está explicitamente autorizado a ver de acordo com a matriz de permissões configurada.
Organizem a vossa base de conhecimento em estruturas hierárquicas para diferentes equipas, projetos ativos/arquivados, níveis de confidencialidade (público, interno, confidencial, secreto) ou necessidades empresariais específicas com herança e substituição de permissões.
As permissões podem ser modificadas, suspensas ou revogadas instantaneamente com efeito imediato (<1 segundo) nas capacidades da IA sem latência ou janelas de propagação. Crítico para casos de cessação de emprego, mudança de função ou incidentes de segurança.
Definem políticas de retenção personalizadas: por quanto tempo os dados são mantidos (dias, meses, anos), quando são automaticamente arquivados no cold storage, quando são permanentemente eliminados.
Ao eliminar ficheiros ou pastas, são permanente e instantaneamente apagados de todos os nossos servidores.
Podem pausar temporariamente ou desativar completamente a vossa instância de IA sempre que desejarem sem penalidades contratuais, com a possibilidade de reativar posteriormente mantendo todas as configurações, dados e permissões exatamente como estavam. Útil para auditorias ou mudanças organizacionais.
Na Mentomy, são os proprietários absolutos e indiscutíveis do vosso sistema de IA. Não tomamos decisões unilaterais sobre a vossa configuração, os vossos dados ou as vossas políticas sem o vosso consentimento explícito prévio. A IA facilita informações, fornece sugestões e recomendações baseadas em dados, mas nunca toma decisões empresariais críticas nem age autonomamente sem a vossa supervisão direta e consentimento informado.
Este princípio de supremacia do controlo humano é inviolável na nossa arquitetura técnica, contratual e ética, em conformidade com o Artigo 14 do AI Act que exige uma supervisão humana efetiva para sistemas de alto risco.
Framework Ético Abrangente — IA Alinhada com os Valores Humanos Fundamentais
Para além da conformidade legal mínima, somos guiados por princípios éticos profundos que garantem que a nossa IA beneficia a sociedade e respeita a dignidade humana fundamental. A ética não é uma camada superficial cosmética adicionada no final — é o fundamento filosófico que guia o nosso design técnico, as nossas decisões de produto e a forma como nos relacionamos com clientes, colaboradores e a sociedade.
O nosso framework ético alinha-se com princípios internacionais estabelecidos por organizações multilaterais e autoridades éticas reconhecidas, comprometendo-se com o desenvolvimento e implementação de IA que respeite os direitos humanos fundamentais, a dignidade, a autonomia e o bem-estar social.
A IA da Mentomy é uma ferramenta para assistir e aumentar as capacidades humanas, NÃO uma substituição da tomada de decisão humana em assuntos importantes. Os utilizadores mantêm sempre o controlo final e a autoridade decisória sobre decisões importantes. Não concebemos IA para manipular, persuadir coercivamente ou explorar vulnerabilidades cognitivas ou emocionais humanas.
Comprometemo-nos proativamente a prevenir que a nossa tecnologia cause danos a indivíduos, grupos vulneráveis ou à sociedade em geral. Avaliação sistemática obrigatória de riscos éticos antes do lançamento de novas funcionalidades significativas. Consideração especial explícita de potenciais impactos em populações vulneráveis (crianças, idosos, pessoas com deficiências cognitivas).
Aspiramos genuinamente a gerar valor líquido positivo para a sociedade europeia, não apenas benefícios comerciais privados a curto prazo. Democratização do acesso ao conhecimento dentro das organizações. Contribuição para a soberania digital europeia reduzindo a dependência de monopólios estrangeiros. Otimização do uso de recursos computacionais para minimizar a pegada de carbono e o impacto ambiental.
Assumimos responsabilidade moral explícita e, quando legalmente aplicável, pelo comportamento dos nossos sistemas de IA e as suas consequências previsíveis. Canais claros para reportar problemas éticos. Protocolo formal para investigação rápida e correção de questões éticas identificadas. Clareza contratual sobre a divisão de responsabilidades jurídicas entre a Mentomy e os clientes utilizadores finais.
A Mentomy não facilita, não habilita tecnicamente nem participa de forma alguma em sistemas de vigilância em massa indiscriminada de populações, em sistemas intrusivos de pontuação social ao estilo de sistemas de crédito social, ou no controlo autoritário de cidadãos que viole os direitos fundamentais à privacidade e liberdade. Rejeitamos ativamente casos de uso que consideramos eticamente problemáticos mesmo que sejam tecnicamente legais.
Não concebemos funcionalidades especificamente orientadas para monitorização invasiva excessiva de colaboradores que viole a dignidade laboral ou a privacidade no local de trabalho. O uso de sistemas de IA para gestão de RH deve ser transparente para os trabalhadores, consentido quando legalmente exigido, e respeitar os direitos laborais fundamentais incluindo a proteção contra discriminação algorítmica na contratação/despedimento/promoção.
Implementamos controlos técnicos e educamos os clientes para respeitar os direitos de autor do conteúdo nas bases de conhecimento. Guiamos proativamente os clientes sobre o uso legal adequado de material protegido por direitos de autor, as limitações do uso justo e os riscos de violação. Não facilitamos conscientemente a pirataria ou a violação sistemática de direitos de propriedade intelectual.
Trabalho técnico ativo e contínuo para impedir que os nossos sistemas perpetuem, amplifiquem ou codifiquem algoritmicamente discriminações sociais existentes presentes em documentos de entrada históricos ou contextos culturais. Isto inclui a deteção de linguagem discriminatória nas respostas, enviesamentos no ranking e recomendações que possam resultar em tratamento desfavorável injustificado.
Proibição contratual absoluta de usar a plataforma para: gerar conteúdo discriminatório ou discurso de ódio, criar desinformação deliberada em escala (campanhas de desinformação), produzir deepfakes não consensuais com intenção maliciosa, facilitar manipulação psicológica prejudicial ou qualquer uso que incite à violência, assédio ou dano contra indivíduos ou grupos protegidos.
Comunicamos honestamente quais os problemas éticos complexos que ainda não resolvemos totalmente de forma satisfatória, quais as inevitáveis trocas éticas que enfrentamos (ex., transparência vs. confidencialidade, equidade individual vs. de grupo) e quais as áreas que requerem mais investigação e inovação. Não afirmamos ter respostas perfeitas para todos os dilemas éticos da IA avançada.
Precisão, Veracidade e Robustez — IA que Funciona Mesmo sob Pressão
Esforçamo-nos obsessivamente para garantir que as respostas da IA sejam precisas, verificáveis, ancoradas em dados reais e que o sistema opere de forma fiável mesmo em condições adversas. Veracidade significa ancoragem rigorosa nas fontes. Robustez significa operação estável e previsível sob carga, falhas parciais ou tentativas de manipulação.
Implementamos medidas técnicas para garantir a precisão, robustez e cibersegurança adequadas do sistema de IA em conformidade com o AI Act, incluindo testes exaustivos, validação contínua e a capacidade de operar de forma fiável e segura ao longo do seu ciclo de vida.
Todas as respostas são construídas EXCLUSIVAMENTE com base em documentos da base de conhecimento do cliente utilizando a arquitetura RAG (Retrieval-Augmented Generation), reduzindo drasticamente as alucinações típicas dos LLMs puros que geram informações plausíveis mas fabricadas sem ancoragem factual. Ancoragem obrigatória no contexto recuperado.
Cada afirmação factual nas respostas inclui uma referência explícita específica a um documento de origem com uma hiperligação direta que o utilizador pode clicar e rever imediatamente para verificar a precisão, o contexto completo e detetar interpretações erróneas ou simplificações excessivas da IA. Zero afirmações sem suporte documental.
Métricas de confiança rigorosamente baseadas em pontuações de similaridade quantitativa entre consulta e documentos recuperados (similaridade coseno no espaço de embedding), indicando objetivamente quão confiante é a IA sobre a precisão da sua resposta: Alta confiança (>0,85), Média (0,7-0,85), Baixa (<0,7 - aviso ao utilizador para verificar cuidadosamente).
A IA é especificamente instruída através de prompts de sistema e ajuste fino de comportamento para admitir honestamente quando NÃO tem informação suficiente na base de conhecimento, em vez de inventar ou especular com respostas fabricadas. Frases como «Não encontrei informação específica sobre...», «Os documentos disponíveis não cobrem...», «Precisaria de mais contexto para...»
Design técnico especificamente otimizado para minimizar alucinações: recuperação robusta com reranking (BGE cross-encoder), ancoragem contextual rigorosa nos prompts (instruções explícitas: «Responda APENAS com base no contexto fornecido»), prompts de sistema que penalizam severamente gerações não ancoradas e validação pós-processamento que deteta inconsistências entre resposta e contexto.
Na Mentomy realizamos testes de forma periódica. Para isso, utilizamos benchmarks curados manualmente com ground truth conhecida para avaliar precisão, relevância, coerência, abrangência e ausência de alucinações nas respostas ao longo do tempo e com as atualizações do sistema.
Revisão periódica sistemática por especialistas humanos específicos do domínio de respostas geradas em casos de uso críticos (conformidade, jurídico, finanças, médico, segurança) com feedback estruturado através de rubricas quantitativas, identificando casos limite problemáticos e alimentando melhorias nos prompts e na recuperação.
Mecanismos integrados na interface do utilizador (polegar para cima/baixo, denúncia, comentários detalhados) para que os utilizadores finais reportem respostas incorretas, incompletas, enviesadas ou problemáticas, com um processo de revisão humana que investiga a causa raiz, corrige o problema específico e alimenta iterativamente melhorias contínuas ao sistema.
Acompanhamento contínuo automatizado de KPIs críticos: relevância média de recuperação (objetivo >0,80), taxa de respostas sem fontes suficientes (objetivo <5%), latência end-to-end (<10s), satisfação dos utilizadores (inquérito CSAT), com alertas automáticos em caso de degradação significativa.
IA Justa e Equitativa — Sem Enviesamento, Sem Discriminação, Sem Favoritismo
A equidade é essencial para evitar decisões enviesadas ou tratamento injusto sistemático. Comprometemo-nos ativamente a garantir que a nossa IA trata todos os utilizadores e casos de uso de forma equitativa, sem discriminação baseada em características protegidas, sem enviesamentos algorítmicos injustificados e sem favorecer artificialmente determinados resultados em detrimento de outros.
Implementamos medidas técnicas e organizacionais para prevenir a discriminação ilícita e promover a equidade em conformidade com os requisitos do AI Act sobre não discriminação, testes com dados representativos e mitigação de enviesamentos que possam resultar em tratamento desfavorável injustificado de indivíduos ou grupos.
Trabalhamos exclusivamente com fornecedores de LLM (Mistral AI) que demonstram compromissos públicos documentados e verificáveis para a mitigação abrangente de enviesamentos nos seus processos de treino em massa (filtragem de dados tóxicos, RLHF com avaliadores diversificados, red teaming extensivo), avaliação contínua (benchmarks de equidade como BBQ, BOLD) e transparência sobre limitações conhecidas.
Ao usar exclusivamente a base de conhecimento fornecida e curada pelo cliente (documentos corporativos, políticas internas, bases de conhecimento profissionais) através da arquitetura RAG, reduzimos significativamente os riscos de enviesamentos externos indesejados introduzidos por conjuntos de dados de treino massivos da internet que inevitavelmente contêm enviesamentos sociais históricos.
Realizamos testes periódicos programados (mensais) com conjuntos deliberadamente diversificados de casos de uso: diferentes indústrias (tecnologia, saúde, finanças, jurídico), tipos de consulta (factual, analítica, criativa) e, quando relevante para o domínio, cenários que cobrem demografias variadas, identificando e corrigindo comportamentos enviesados através de ajustes nos prompts, na recuperação ou nos modelos.
Revisão sistemática humana especializada + automatizada (ferramentas NLP de deteção de enviesamentos) de respostas geradas para detetar potenciais padrões de enviesamento em: linguagem utilizada (linguagem de género, estereótipos), recomendações ou priorizações injustificadas, sobre-representação de certas perspetivas face a outras, com correção através de prompt engineering ou fine-tuning quando são detetados enviesamentos sistemáticos.
Documentamos abertamente e honestamente os enviesamentos conhecidos inerentes aos modelos fundacionais LLM utilizados (ex., enviesamentos linguísticos em direção ao inglês, sobre-representação de perspetivas ocidentais, desempenho assimétrico em diferentes demografias) e as suas limitações em determinados contextos culturais, linguísticos ou específicos do domínio, sem afirmar ter completamente «resolvido» o problema dos enviesamentos na IA.
O nosso sistema RBAC (Controlo de Acesso Baseado em Funções) baseia-se exclusivamente em critérios organizacionais legítimos e funcionais (função profissional, departamento, projeto, nível de confidencialidade), NUNCA em características pessoais protegidas por lei (raça, género, religião, orientação sexual, origem nacional, idade, deficiência). Garantias ao nível da arquitetura contra a discriminação.
Suportamos as principais línguas europeias (espanhol, inglês, francês, alemão, italiano, português) com qualidade de resposta equivalente testada através de benchmarks multilingues, evitando barreiras linguísticas no acesso a informações empresariais críticas e promovendo a inclusão de trabalhadores não nativos na língua corporativa dominante.
A IA não favorece artificialmente determinados documentos, fontes privilegiadas ou respostas em detrimento de outras, exceto pela relevância técnica objetiva medida algoritmicamente através de pontuações de similaridade no espaço vetorial. Não existe «boosting» manual de determinados conteúdos, autores ou departamentos. Ranking puro baseado na relevância semântica matemática.