Como usar Inteligência Artificial na Comunicação Interna de forma segura, ética e, acima de tudo, humana?
Essa pergunta pautou a segunda transmissão da Dialog AI Week, que abordou os riscos e cuidados com segurança da informação e LGPD, os limites éticos no uso de IA generativa e como equilibrar eficiência com empatia na criação de conteúdos.
Esse debate tão importante foi conduzido por Adriano Zanni, diretor de Atendimento e especialista em Comunicação Interna no Grupo In Press, e Cynthia Provedel, fundadora da Caminho do Meio e cofundadora da ComunIA, primeira comunidade que estuda o uso de Inteligência Artificial na Comunicação Interna no Brasil.

O equilíbrio da Inteligência Artificial na Comunicação Interna
Como encontrar o equilíbrio entre eficiência operacional e empatia no uso de Inteligência Artificial na Comunicação Interna com o uso da IA?
Cynthia lembra que a empatia é uma habilidade “intrinsecamente humana” e cita o futurista alemão Gerd Leonhard, que questiona se as pessoas vão ser orientadas pela mudança ou se elas a orientarão, além de afirmar que as máquinas são boas em simular, mas não em ser e, por fim, que o futuro está justamente em transcender a tecnologia.
Para a cofundadora da ComunIA, a empatia é colocada em prática na medida que é adotada uma abordagem que busca esse uso responsável, ético e consciente da Inteligência Artificial em Comunicação Interna. Na prática, isso significa analisar e usar os dados (ou demais conteúdos) gerados por IA de forma humana, levando em consideração a cultura organizacional, por exemplo. O dado por si só não basta.
“Falando um pouco do uso aplicado da Inteligência Artificial na Comunicação Interna, quando a gente pensa em aplicar para brainstorming, temos várias informações genéricas que vão precisar de um pensamento crítico para ver o que é viável de acordo com o contexto daquela organização, do que faz sentido ou não. A mesma coisa para o texto, que pode ser produzido por IA buscando a personalização e segmentação que tanto falamos, mas, no final das contas, às vezes tomamos tanto tempo para consolidar um tom de voz de CI que não dá para abrir mão disso. (…) A IA vai apoiar, nos assistir, mas de forma complementar.”
Adriano reflete que o uso de plataformas de IA generativa têm uma ótica coletivista, sendo uma soma de repertório de briefings e de bagagens de buscas feitas dentro desse ambiente, por isso é necessário se atentar a questões de LGPD (Lei Geral de Proteção de Dados Pessoais) e de ética e integridade. Ele afirma que levar isso em conta também é equilibrar a tecnologia com empatia e humanização.
Ele também ressalta que essas plataformas podem conter vieses inconscientes. O diretor compartilhou uma experiência própria, quando pediu para uma ferramenta de IA gerar imagens de 100 médicos. Depois do resultado, começou a filtrar: quando pediu para mostrar somente os mais jovens, o número desceu para 40. Quando o prompt era mulheres mais jovens, sobraram 6 imagens. E quando acrescentou o viés racial, restaram apenas duas ou três opções.
“Isso é só para referenciar que o que praticamos no off-line, o que discutimos na sociedade, está exatamente refletido na construção dos prompts, que é o background que a IA generativa nos dá. Isso também passa por vieses de empatia.”
Inclusive, Adriano convida profissionais de Comunicação Interna para que façam essa análise durante o uso da tecnologia.
“Será que estou gerando um texto, um documento, uma apresentação, um vídeo ou um audiovisual que é acessível para todo mundo? Que é inclusivo? Que tem uma linguagem e um formato que respeite o cluster de personas que tenho na minha Comunicação Interna, que vão consumir aquele conteúdo de uma IA generativa?”, ponderou.
Indo além, ele comenta também sobre a necessidade de informar para a IA o que não quer que ela crie e que esse movimento também passa por empatia e humanização.
Cuidados éticos e legais
Adriano cita 5 pontos como cuidados éticos e legais que os profissionais de Comunicação Interna devem ter ao utilizar IA generativa no ambiente corporativo, respeitando a LGPD e evitando riscos na manipulação de dados internos:
- Sempre leia os termos de serviço de cada plataforma de IA que será utilizada.
- Quando criar prompts, não cite artistas específicos para evitar plágio/ferir direitos autorais.
- Ao criar algo, cheque no Google Research se não há algo parecido. Se houver, não use.
- Deixe claro que o conteúdo foi criado com IA.
- Mantenha o registro dos prompts para argumentar o raciocínio usado.
Cynthia provoca ao lembrar que muitas pessoas simplesmente usam IA sem levar em consideração esse tipo de cuidado, sem questionar.
Ela compartilhou também uma reflexão feita por um estudo do Instituto de Comunicação Interna do Reino Unido, que apontava que quem cria essas tecnologias de IA nem sempre fornece aos usuários instruções de como utilizá-las de maneira ética. E ela considera que esse movimento pode ser puxado pela área de CI nas organizações.
“A nossa atuação transversal, interagindo com outras áreas, favorece para que a gente protagonize e puxe discussões a respeito de uma governança multidisciplinar estruturada para a condução dessa temática.”
Provedel contou que a ComunIA teve a chance de traduzir um conteúdo do instituto do Reino Unido com diretrizes para o uso ético de IA, são elas:
- Aplicar IA seguindo valores e cultura organizacional;
- Atuar de forma legal e segura;
- Promover uma adesão centrada no ser humano, pensar no impacto do conteúdo no ser humano;
- Dialogar organizacionalmente para que o uso seja feito com segurança;
- Defender o compartilhamento de pensamento crítico (incentivar que as pessoas não usem IA de forma automática, sem consciência);
- Uso inclusivo e acessível;
- Monitorar e minimizar o impacto da IA na sustentabilidade.
Adriano compartilhou que as empresas vêm se preocupando com a segurança de seus dados quando o assunto é uso de plataformas de IA e que vêm tentando assegurar que as ferramentas usadas e os fornecedores possuam o mesmo cuidado.
Protagonismo dos profissionais de Comunicação Interna
A ComunIA tem defendido uma IA mais consciente, inclusiva e ética. Questionada sobre como os comunicadores internos podem se tornar protagonistas dessa transformação e evitar o uso automático e sem senso crítico das ferramentas, Cynthia menciona a criação de narrativas estruturadas e o apoio a uma cultura que contextualiza o uso de IA.
“Quando a gente dá clareza para as pessoas de que forma a IA dialoga com a cultura organizacional, porque a IA é importante para a cultura, porque a IA é importante para a estratégia do negócio, a gente dá sentido para esse uso. Ajudamos as pessoas a compreender a oportunidade daquela aplicação.”
Segundo ela, essas narrativas, inclusive, podem ser corroboradas pela liderança.
“Como ajudar as pessoas a fazer boas perguntas, não só para o prompt, mas perguntas a respeito dos porquês que nos ajudam a tomar uma decisão para um lado ou para o outro em relação ao uso de IA. E a liderança comunicadora pode contribuir nisso, ajudando os times a pensar nas dores do negócio, nas suas áreas e em como a IA pode atuar nesses temas.”
Resumindo, as oportunidades de protagonismo têm foco no uso crítico e menos orgânico e automático. Isso protagoniza discussões em termos de governança, constrói narrativas que justificam e contextualizam o uso da IA conectada à cultura organizacional e à estratégia do negócio e, com o apoio da liderança, fomenta discussões sobre competências que vão sustentar essa jornada.
Adriano aponta que, se a área está automatizando processos que vão possibilitar que profissionais tenham tempo para conectar pensamentos estratégicos, olhar para os OKRs do negócio, metas e KPIs de cultura, planejar, diagnosticar e mensurar, que o setor use cada vez mais prompts estratégicos, Inteligência Artificial para produção de conteúdo e pequenos planos táticos.
Gostou do conteúdo? Deixe seu comentário!

Por Marcela Freitas Paes, analista de conteúdo e editora do Dialog Blog.
0 comentários