A rapidez com que a IA entrou na rotina do colaborador ajuda a explicar por que tantas empresas tentam correr atrás da própria governança. Antes mesmo de a conversa sobre limites amadurecer, a tecnologia já passou a sugerir caminhos em diferentes frentes de trabalho, enquanto o uso no dia a dia segue cercado por dúvidas nem sempre verbalizadas. O que pode, de fato, ser compartilhado? Até onde vai a confiança na resposta da máquina? E, sobretudo, em que ponto começa a responsabilidade humana? É nessa brecha que o tema “governança” escapa da TI e ganha uma dimensão mais estratégica, exigindo da comunicação interna não apenas a divulgação de regras, mas a capacidade de traduzir diretrizes, dar sentido às restrições e sustentar, na prática, uma cultura de segurança e uso responsável.
Não é o manual, por si só, que resolve essa equação. Quando se fala em governança da IA, o que está em jogo é a capacidade de a empresa estabelecer critérios claros para o uso, definir responsabilidades e fazer com que essas regras sobrevivam ao teste da rotina. Isso aparece em cenas simples, mas bastante reveladoras: um prompt alimentado com dado sensível, uma resposta reaproveitada sem qualquer revisão humana, uma ferramenta usada “por fora” para acelerar o trabalho. E, em cada uma delas, a falha não é apenas operacional. O que temos, no fundo, é um problema de orientação, de entendimento e, muitas vezes, de comunicação.
Quem governa o que já está em uso?
Mas, afinal, quem deveria governar a relação das pessoas com a IA? A resposta, ao que tudo indica, já não cabe mais em uma área isolada. Isso porque essa ferramenta não opera somente no “plano da infraestrutura”, como se fosse um computador mais potente ou uma internet mais veloz – ela também envolve linguagem, interpretação e comportamento. Pensemos por um instante: quando um colaborador pede à máquina que reescreva um e-mail ou resuma uma reunião, ele está acionando uma relação que envolve confiança, repertório, senso crítico e responsabilidade. O que demanda, também, uma mediação humana e narrativa.
Na leitura de Thaís Naldoni, CCO da Invitro, uma das principais agências globais de comunicação interna, essa mudança de mindset já começou. Segundo ela, a governança da IA “está deixando de ser uma lista de bloqueios da TI para se tornar um esforço de equipe”, com a comunicação interna passando a dividir a mesa com o RH e o Jurídico para definir “quem pode usar o quê e como garantir a segurança dos dados”. Esse rearranjo deixa claro que a IA já extrapolou o campo técnico e demanda respostas mais amplas para dilemas que a tecnologia, sozinha, não consegue mais resolver.
Entre os bits e o humano

Não por acaso, essa mudança já pode ser percebida na rotina.Quando a tecnologia começa a operar por linguagem e a interagir diretamente com o colaborador, o risco associado à tecnologia ganha novos contornos. Ele está nos ruídos de entendimento, no excesso de confiança e até no uso automático da IA sem que se pense, de fato, na sensibilidade do conteúdo que está sendo compartilhado. A imagem que Thaís usa para diferenciar os papéis de cada área também é feliz. “Se a TI cuida da infraestrutura, os bits, a comunicação interna cuida das pessoas e da narrativa, o humano”, diz.
Ou seja, mais do que reforçar uma ideia genérica de colaboração, a fala da CCO da Invitro aponta para algo bem mais prático do que apenas desenhar protocolos, por mais importantes que eles sejam: não basta ter regras se elas não forem compreendidas. Segundo Thaís, sem tradução, contexto e repetição, qualquer norma corre o risco de existir apenas no papel. É justamente aí que a comunicação interna assume uma atuação decisiva na governança da IA. “Sem a nossa participação, as regras de segurança são apenas cadeados que as pessoas acabam ignorando no dia a dia”, afirma.
No fim, o colaborador precisa entender não só o que foi vetado ou permitido, mas por que aquele limite existe e que tipo de responsabilidade continua sendo sua, mesmo com a automação. Como resume a porta-voz, a comunicação entra para “traduzir complexidade em comportamento seguro”.
Dar forma ao invisível
A essa altura, já não faz sentido tratar a governança da IA como uma ação solta e distante da comunicação interna. Na leitura de Cleide Cavalcante, gerente executiva de Marketing da Progic, o tema é, antes de tudo, estrutural. Para ela, a organização ideal passa pela criação de um comitê multidisciplinar que reúna áreas estratégicas, da TI ao RH, passando por Compliance e Comunicação Interna. E dificilmente poderia ser de outro jeito. Para dar conta de uma tecnologia que avança em várias frentes ao mesmo tempo, o olhar também precisa ser sistêmico. Como a própria Cleide sugere, se há a camada da infraestrutura e a da conformidade legal, existe também outra, menos visível, mas igualmente decisiva: a do impacto sobre as pessoas e daquilo que, de fato, é compreendido por elas.
Quando se trata de governança da IA, o desafio é construir uma arquitetura múltipla, capaz de antecipar riscos, definir protocolos e, ao mesmo tempo, produzir entendimento, com a comunicação interna na função de costurar tudo isso em uma narrativa clara. Cleide define a área como uma espécie de “tradutor estratégico”, justamente por sua capacidade de “desmistificar o jargão técnico” e transformar “normas e políticas complexas em mensagens claras e acessíveis”. A formulação é valiosa porque ajuda a afastar uma visão reduzida da comunicação com colaboradores, como se sua função fosse apenas “embalar”, de forma mais simpática, decisões já tomadas. O que ela sugere é algo mais profundo: a comunicação tem a capacidade de moldar a cultura e o comportamento seguro em relação à IA
Quem decide, quem explica, quem acompanha

Há ainda outro ponto importante nessa reflexão. Para Cleide, o comitê não existe apenas para organizar as áreas envolvidas ou definir regras, mas para autorizar aplicações “com base em critérios de risco e responsabilidade” e estabelecer diretrizes de mitigação. É nessa engrenagem decisória que se define quem libera, quem orienta, quem avalia, quem comunica e quem acompanha cada etapa, sem deixar pontas soltas pelo caminho.
Além disso, essa estrutura dialoga com a ISO 42001, a primeira norma internacional voltada a sistemas de gestão de IA, ancorada em princípios como melhoria contínua, monitoramento de riscos e transparência nos processos organizacionais. A referência é importante porque mostra que o tema começa, enfim, a sair do improviso.
O risco mora no uso
Embora seja fácil apontar riscos associados ao uso de IA nas empresas, o perigo nem sempre se anuncia de forma tão evidente no dia a dia. Um colaborador que tenta destravar uma entrega e recorre a uma conta pessoal, compartilha mais informação do que deveria, por exemplo. Mas é justamente aí, nesse uso aparentemente inofensivo que os riscos começam a aparecer. Então, onde mora o perigo? Menos nos incidentes e mais na forma como a IA é acionada, interpretada e normalizada, o que nos leva à importância de trabalhar a comunicação interna como uma tradutora da governança – e não apenas como apaga-incêndio.
Não à toa, Cleide chama atenção para um dos pontos mais críticos desse cenário: a segurança de dados sensíveis, que envolve, também, fatores como confidencialidade e exposição indevida de informações. Segundo ela, o uso informal e não autorizado de ferramentas de IA, fora dos ambientes controlados das empresas, tem nome: “Shadow AI”. O termo ajuda a identificar uma prática que não surge, necessariamente, da intenção de burlar regras, mas da soma entre facilidade de acesso, pressa e pouca clareza sobre limites.
Proatividade na comunicação
No cotidiano, isso é mais comum do que muitas organizações gostariam de admitir. O problema é que, ao acionar plataformas externas sem governança adequada, abre-se uma brecha real para o vazamento de dados proprietários, informações estratégicas e conteúdos de clientes.
Por isso, a executiva defende uma atuação proativa da comunicação interna, com campanhas visuais que tornem os riscos mais concretos, treinamentos interativos que simulem situações reais e reforço contínuo sobre segurança de dados. “É importante reforçar a importância da LGPD, explicando o ‘porquê’ das restrições e como cada colaborador é um guardião da informação da empresa”, ressalta Cleide. Com isso, a empresa tira a conversa do lugar estreito do simples “não pode” e a leva para o campo da corresponsabilidade.
Entre o bloqueio e a orientação
A reação a esse cenário também já começa a mudar. Muitas empresas estão substituindo a lógica do bloqueio puro por ambientes mais controlados, combinando IA proprietária, comunicação interna proativa e governança clara. Do ponto de vista de Thaís Naldoni, da Invitro, a tendência, agora, é oferecer ferramentas corporativas “fechadas”, em que os dados não alimentam modelos públicos, com diretrizes sobre o que pode, ou não, ser compartilhado com a máquina. Essa mudança, segundo ela, é significativa porque indica uma compreensão mais realista do problema. Em vez de simplesmente proibir, as empresas começam a reconhecer que a IA já faz parte da rotina e que, por isso, a governança precisa encontrar formas mais inteligentes de organizar essa presença.
Mas Thaís faz uma ressalva decisiva: “a regra no papel não garante segurança”. No fundo, o que determina se o colaborador vai, de fato, compreender a diferença entre uma ferramenta autorizada e outra aberta é a forma como essa informação chega até ele. Como explica a CCO, é preciso contextualizar o tema, dar concretude ao risco e traduzir a proteção de dados em situações que façam sentido para ele. Assim, a comunicação ajuda o público interno a perceber, com mais clareza, “o risco de vazamento de um dado de cliente e como isso afeta a todos”.
Do “não pode” ao uso responsável
Em vez de insistir em um discurso focado na proibição, o que Thaís propõe é uma pedagogia do uso responsável. Na governança da IA, a comunicação interna precisa fazer o “não pode”, sempre mais fácil de acionar, dar lugar a uma orientação mais engajadora, que ajude o colaborador a usar a ferramenta com responsabilidade. “Devemos criar uma cultura em que o colaborador se sinta empoderado pela tecnologia, mas totalmente consciente do seu papel na proteção da empresa”, destaca a executiva. Às vezes, as políticas internas até delimitam o risco, mas nem sempre ensinam a agir bem diante dos desafios. E a prevenção também depende disso: de fazer o caminho seguro parecer não só correto, mas compreensível e viável.
Não por acaso, o erro mais decisivo não está na máquina – como muita gente ainda pensa. Ainda hoje, é comum atribuir à IA a responsabilidade quase inteira por acertos e desvios, como se nós, no papel de líderes e liderados, estivéssemos fora da equação.
Usando do jeito certo

Mas será que estamos mesmo agindo da melhor forma? O que, de fato, é aceitável e o que já ultrapassa esse limite? Nas palavras de Vitor Miranda, CEO da Invitro, o principal risco já não está na arquitetura das ferramentas, hoje bastante robustas e seguras, “mas no comportamento humano”. A afirmação é importante porque reorganiza, de forma contundente, a hierarquia do problema.
Diante disso, o que a comunicação interna, dentro da governança da IA, pode fazer pelo colaborador quando ele nem sempre sabe o que deve ficar fora do prompt e sente receio de perguntar se está a usando do jeito certo?
Para Vitor, a resposta passa por guias de uso, educação crítica e fluxos seguros para tirar dúvidas, estruturados de forma que o público interno compreenda o que não deve entrar no sistema e que a decisão final continua sendo humana. Segundo ele, quando as pessoas entendem como a tecnologia funciona, tornam-se a primeira linha de defesa da empresa. “Prevenir o uso indevido é, acima de tudo, uma tarefa de transparência e educação contínua”, crava.
Quando a regra vira entendimento
É nesse intervalo entre a criação de diretrizes e a incorporação da IA na rotina que entra a comunicação interna para falar de governança e outras coisas mais. Não como um time chamado apenas para divulgar decisões prontas, mas como uma instância capaz de transformar orientação em prática, oferecendo contexto e entendimento às pessoas.
Essa talvez seja uma das viradas mais importantes trazidas pela disseminação da IA nas empresas. Durante muito tempo, comunicar uma norma significava quase sempre apresentá-la de forma vertical: o que pode, o que não pode, o que foi liberado e o que foi vetado. Mas, quando o assunto envolve uma tecnologia cercada por entusiasmo, medo, promessas e receios de substituição, essa lógica se mostra insuficiente. O colaborador não precisa apenas ser informado de que existe uma regra. Precisa entender o sentido dela, os riscos que ela tenta evitar, os benefícios que ela preserva e o tipo de responsabilidade que continua sendo sua
Traduzir para gerar confiança
É nesse ponto que a fala de Vitor Miranda ajuda a iluminar o caminho. Segundo ele, as políticas de uso de IA costumam vir carregadas de uma “linguagem jurídica pesada” que, em vez de orientar, afasta o público. E quando a informação falha, é o colaborador quem preenche esse vazio com interpretações parciais, inseguranças e suposições, um terreno fértil para que a novidade seja encarada como ameaça. O problema, portanto, não está na regra em si, mas na forma como ela chega ao público interno: truncada e, muitas vezes, incompreensível. “Para mudar isso, a comunicação interna atua como uma tradutora de confiança. Nós trocamos o foco do controle pelo foco no benefício”, argumenta.
A expressão é forte porque desloca a discussão para um campo mais humano. Traduzir confiança não significa suavizar o risco nem “maquiá-lo” com linguagem simpática. Significa mostrar por que aquela diretriz existe, de que maneira ela protege o trabalho do próprio colaborador e como a IA pode, sim, aliviar tarefas repetitivas. Como diz Vitor, “quando a empresa comunica com clareza e empatia, a tecnologia deixa de ser uma ameaça e passa a ser vista como um copiloto confiável”. E copiloto ajuda, mas não assume o comando sozinho.

Manual que só informa não basta
Traduzir, porém, não é apenas trocar o juridiquês por uma linguagem mais palatável. Como sustenta Cleide Cavalcante, da Progic, o ponto decisivo está em como diretrizes, políticas e manuais de uso de IA são pensados e colocados em circulação. Para ela, esses materiais não podem existir como um mero repositório de normas, apartado da realidade da empresa. Precisam ser úteis, vivos e conectados ao cotidiano. “Deve-se evitar o tom proibitivo, focando no empoderamento do colaborador. Na disseminação, a abordagem deve ser multicanal e engajadora”, reflete. A diferença parece sutil, mas não é. Uma coisa é entregar um documento para ser lido; outra, muito diferente, é construir algo que possa ser internalizado e acionado justamente no momento em que a dúvida aparece.
Essa reflexão ajuda a esclarecer melhor por que a comunicação interna entra no campo da governança da IA. Não apenas porque sabe distribuir mensagens, mas porque sabe trabalhar linguagem, ritmo, canal e aderência. Cleide defende uma abordagem multicanal e engajadora, combinando gamificação, vídeos curtos, infográficos, quizzes, intranet, TV corporativa, aplicativos e workshops presenciais ou on-line. O objetivo não é “embelezar” a norma, mas fazer com que ela sobreviva à pressão da rotina. Quando a diretriz circula em formatos mais próximos da experiência real do colaborador, a conformidade vira um hábito mais natural.
Há outro ponto relevante aí. Dentro dessas diretrizes, Cleide reforça a necessidade de revisão humana dos materiais, lembrando que nenhum conteúdo ou dado gerado por IA deve ser considerado final sem validação crítica de um profissional.
Explicar o porquê também é governar
O papel da comunicação interna se torna ainda mais evidente quando a empresa decide liberar ou restringir ferramentas. Nesses momentos, o que está em jogo já não é apenas a existência da política, mas a confiança depositada na forma como a organização conduz a mudança. Cleide chama atenção para isso ao afirmar que a chave está na transparência e na explicação clara do “porquê” de cada decisão. A observação é certeira porque, sem qualquer contexto, a simples liberação pode soar como entusiasmo acrítico, ao mesmo tempo que a restrição parece arbitrariedade. É essencial mostrar que a empresa está agindo em prol do bem-estar coletivo e da sustentabilidade do negócio”, afirma.
Em outras palavras, governar também é evitar que a regra produza resistência por falta de explicação. Quando a empresa comunica com clareza, ela reduz a chance de que a inovação caminhe de um lado e a segurança de outro. Como sugere Cleide, a meta é criar um ambiente em que as duas consigam andar juntas
Um cenário tão novo
Se, até aqui, foi possível compreender como a comunicação interna se tornou parte da engrenagem da governança da IA, a pesquisa que a Invitro prepara para os próximos meses promete ampliar essa percepção. Afinal, em que estágio o mercado realmente se encontra? Não por acaso, a empresa decidiu transformar essa inquietação em estudo. Segundo Thaís Naldoni, a investigação setorial deve observar quatro dimensões principais: maturidade digital, modelos de governança, práticas de segurança e preparo das equipes.
A escolha desses eixos, por si só, já revela a complexidade do cenário. A essa altura, já não basta perguntar se a empresa usa IA ou não. É preciso entender com que critérios essa adoção acontece, quem define seus limites, que nível de proteção acompanha esse uso e até que ponto o colaborador foi, de fato, orientado para lidar com a ferramenta. Em outras palavras, a pesquisa parte da percepção de que a governança da IA não pode ser medida apenas pelo número de plataformas liberadas ou pelas restrições em vigor, mas pelo grau de articulação entre tecnologia, cultura, segurança e comunicação interna.
Mapear para entender onde as empresas estão
A proposta prevê etapas quantitativas e qualitativas e deve olhar com atenção para setores em que o desafio de engajamento é mais alto, como Indústria, Saúde e Varejo, embora não se restrinja a eles. A escolha também não é casual. Em ambientes mais distribuídos, operacionais e heterogêneos, comunicar bem tende a ser ainda mais decisivo, porque a distância entre regra e prática costuma se ampliar. Ao fim, a expectativa da Invitro é oferecer um guia mais prático sobre como as empresas estão equilibrando a eficiência da automação com aquilo que, nas palavras da própria Thaís, segue sendo inegociável: a necessidade de manter uma comunicação “humana e estratégica”.
Seu case merece estar entre os melhores do Brasil

O Prêmio Empresas que Melhor se Comunicam com Colaboradores (PEMCC) chega à sua 4ª edição e está pronto para reconhecer as marcas que estão transformando a comunicação interna em vantagem competitiva. Este é o único lugar em que a comunicação interna tem esse protagonismo. Inscreva seu case e mostre ao mercado como sua empresa engaja e inspira.
São 20 categorias para você mostrar seu impacto – de Influenciadores Internos a Memória Organizacional, passando por Gestão de Crise, Liderança comunicadora e Campanha, entre outras. Com tantas opções, há uma categoria que certamente combina com o seu projeto. Ao participar, você garante presença no Banco de Cases gratuito, visibilidade nas plataformas Melhor RH e Negócios da Comunicação, recebe a newsletter mensal e ainda participa do Fórum Anual de Comunicação Interna, trocando experiências com os maiores nomes do setor, e da apresentação dos cases vencedores.
Para garantir sua inscrição, acesse o site do PEMCC ou fale com Ana Carolina Felizardo pelo WhatsApp (32) 99150-1070. O futuro da comunicação interna é construído por quem decide participar.







