Apesar da inteligência artificial (IA) já ter uma trajetória longa e ser uma velha conhecida de muitos profissionais, desde que as plataformas de IA generativa explodiram e se popularizaram entre usuários de todos os níveis, muitas discussões de todo o tipo começaram a surgir com relação ao seu uso. Inevitavelmente, um dos assuntos mais abordados nesse âmbito é justamente a ética na IA e a transparência no uso de IA, especialmente no ecossistema corporativo e educativo. Quer dizer, até que ponto o uso dessa tecnologia é adequado para a execução de tarefas, sejam elas complexas ou simplesmente repetitivas?
Não há dúvidas de que a IA facilita a vida de muitos profissionais, sejam da área da saúde, marketing/vendas, finanças, jurídico ou recursos humanos, e que o uso da IA no trabalho não deve, de nenhuma forma, ser depreciado. Principalmente porque em muitos âmbitos hoje em dia existem atribuições que são praticamente impossíveis de realizar sem ela.
Por isso, a discussão não é e nunca foi “usar ou não usar IA no trabalho”, e sim como usar a IA em práticas responsáveis, com ética e transparência. Em outras palavras, como fazer com que ela não traga consequências negativas à sociedade e esteja alinhada com práticas de governança de dados.
Existem muitos aspectos na questão ética a ser considerados no uso da IA, como a perpetuação e amplificação de vieses em diferentes áreas, a dificuldade de responsabilização em caso de erros ou decisões injustas, problemas de privacidade, segurança e proteção de dados, e, sobretudo, seu uso malicioso. Como tudo aquilo que é novo e não possui nenhum precedente, muitos aspectos relacionados ao uso da IA ainda estão em uma área nebulosa. Afinal, trata-se de um tipo de tecnologia que desafia as estruturas legais e regulatórias existentes. E é por isso que debater o assunto agora é fundamental.
Integre a inteligência artificial de forma responsável, alinhando inovação com governança de dados e práticas éticas no ambiente corporativo com o Bitrix24!
Experimente grátis agora!Os desafios éticos e morais da inteligência artificial (IA) são tão significativos que, muito antes de se popularizar, a UNESCO desenvolveu um laboratório para tratar especificamente da ética na IA. Trata-se de uma plataforma que monitora como diferentes países estão adotando e regulamentando a IA, com base nos princípios da “Recomendação sobre a Ética da IA”, criada pela própria UNESCO em 2021. O laboratório também disponibiliza ferramentas, diretrizes e cursos para ajudar instituições a implementar a IA com ética e transparência. Além disso, o projeto também conta com a “Avaliação de Impacto Ético” (EIA), uma ferramenta que ajuda a identificar e reduzir riscos de falta de ética em projetos de IA, fomentando aspectos como transparência, sustentabilidade, privacidade, justiça e segurança, e combatendo tudo o que possa provocar danos individuais e sociais.
A EIA tem como objetivo criar metodologias para que a inteligência artificial não traga consequências negativas, como a discriminação ou violações de direitos humanos, e garantir a transparência ao assegurar que as decisões tomadas pela IA sejam explicáveis. Além disso, a ferramenta também visa promover a responsabilidade, buscando definir quem responde por falhas ou impactos negativos no uso da IA, e alinhar a IA à legislação, fazendo com que regulamentações locais e internacionais sejam cumpridas e que sejam contemplados os aspectos de responsabilidade, justiça e transparência.
Por ser uma tecnologia relativamente nova, muita gente parece não entender os desafios que a sociedade está enfrentando e ainda enfrentará quando o assunto é ética na inteligência artificial (IA). Em se tratando especificamente do ambiente corporativo, pouco se sabe realmente qual a importância da ética na IA e que consequências seu uso irresponsável pode trazer tanto a funcionários como a clientes de empresas.
No caso da área de Recursos Humanos, por exemplo, é fundamental evitar que as ferramentas de IA utilizadas no recrutamento e seleção perpetuem preconceitos ou discriminações. Se as ferramentas aprenderam a fazer uma triagem de candidatos com normas e controles criados por meio de uma repetição antiga e defasada, é fundamental que elas sejam usadas junto a um humano para evitar este tipo de vieses, aplicando práticas que são normalmente consideradas na engenharia para a construção de sistemas justos.
Para que a IA seja aplicada de forma ética, é importante que empresas adotem práticas multidisciplinares para avaliar riscos e impactos em seu público interno e externo. A engenharia de sistemas desempenha um papel fundamental nesse processo, assegurando que algoritmos sejam desenvolvidos com transparência e auditabilidade, evitando vieses discriminatórios. Além disso, para que o uso da IA seja transparente, é preciso que exista colaboração entre setores público e privado. Dessa forma, é possível estabelecer padrões globais que equilibrem inovação e proteção aos direitos humanos, garantindo que a implantação da inteligência artificial beneficie a sociedade como um todo.
Insira seu e-mail para receber uma lista abrangente dos prompts de IA mais essenciais.
A falta da elaboração de princípios éticos no uso da IA no trabalho pode gerar consequências graves, desde discriminação até violações de direitos fundamentais. Quando implementada sem transparência ou responsabilidade, a IA pode reproduzir injustiças, invadir a privacidade de colaboradores, manipular consumidores e até mesmo tomar decisões ilegais ou antiéticas sem que haja um responsável claro. Os exemplos a seguir ilustram situações reais em que a ausência de regulamentação e boas práticas no uso da IA pode trazer prejuízos tanto para empresas quanto para indivíduos, reforçando a necessidade urgente de diretrizes éticas na adoção dessa tecnologia.
Já mencionamos algumas vezes esse que é talvez um dos dilemas éticos mais comentados atualmente envolvendo a IA no contexto do trabalho. Muitos sistemas utilizados por equipes de recursos humanos para fazer uma triagem dos currículos recebidos para vagas abertas estão baseados em IA. Mas esse não é realmente o problema. A questão aqui é a forma pouco ética como essas tecnologias muitas vezes trabalham para escolher quais candidatos podem encaixar em uma determinada vaga. O perigo mora nos critérios utilizados pela IA, que muitas vezes, por práticas repetidas no passado, acabam desqualificando profissionais pela idade, sexo ou nacionalidade. E nem sempre tem a ver com como foram programadas: tem a ver com um sentido comum errôneo, ainda que a empresa não tenha a intenção de discriminar. Afinal, a IA funciona baseada em aprender por meio de padrões.
O desenvolvimento e uso de softwares de IA de rastreamento de produtividade para vigiar funcionários remotos, como aqueles que gravam telas e detectam atividades “não autorizadas”, ou os que analisam as emoções por webcam, são bastante comuns em muitas empresas. Conhecido como “micromanagement”, esse tipo de monitoramento é uma prática abusiva, que invade a privacidade dos colaboradores. Em alguns casos, eles inclusive chegam a ser penalizados por pausas naturais ou expressões faciais “improváveis”.
O controle constante pode arruinar a confiança entre os funcionários e a empresa, além de promover uma espécie de “teatro de produtividade”, onde os colaboradores fingem que trabalham ou até mesmo simulam emoções que não sentem somente para não correr o risco de receber uma advertência.
Apesar da melhora contínua na qualidade e no desenvolvimento dos seus resultados, a IA gerativa já criou, e continua criando, alguns “frankensteins” na área de conteúdo, principalmente o criativo. Versões mais básicas e gratuitas de ferramentas muitas vezes não têm a mesma qualidade que as versões pagas, e é claro que a maioria das pessoas opta por não pagar pelos serviços se a empresa onde trabalham não o faz. O resultado disso pode ser peças gráficas publicitárias mal feitas, textos com informações equivocadas ou inventadas, relatórios com erros de lógica, traduções inconsistentes e, é claro, o famigerado plágio. Além disso, há também o mau uso intencional desse tipo de ferramenta. Muitas empresas de marketing usam IA generativa para criar “influenciadores virtuais” ou falsos depoimentos de clientes, enganando consumidores.
A IA também revolucionou a precificação dinâmica, possibilitando que empresas mudem valores de produtos ou serviços em tempo real com base em dados de mercado, demanda no momento da compra e perfil do consumidor. No entanto, quando usada de forma não ética ou não transparente, a IA pode levar a práticas manipulativas, prejudicando consumidores e até mesmo infringindo leis.
Algumas empresas de e-commerce e plataformas de serviços famosas já são conhecidas por usar preços dinâmicos baseados em IA para cobrar mais de usuários em determinadas localizações ou horários, uma prática conhecida como “surge pricing”. Dependendo de como se use essa tática de precificação, pode ser injusto para os consumidores. Por exemplo, no caso de produtos de primeira necessidade, em situações de emergência, medicamentos ou inclusive quando pessoas com menos condições terminam obrigadas a pagar mais por um produto ou serviço.
Os softwares de IA para analisar emoções de usuários em reuniões sem consentimento claro, prática que mencionamos anteriormente, já foram criticados publicamente quando uma conhecida plataforma de comunicação empresarial por videochamada foi descoberta fazendo uso deles. É claro que a empresa só recebeu críticas porque os dados vazaram.
Outro caso conhecido de vazamento de dados e utilização sem ética da IA ocorreu em 2018, quando dados de 87 milhões de usuários do Facebook vazaram para uma empresa que usou IA para manipulação política.
Em muitos casos, as empresas podem coletar informações desnecessárias dos seus funcionários, como dados biométricos, emoções (outra vez) e hábitos pessoais, sem consentimento claro. Esse tipo de dados, ou inclusive dados utilizados para treinar IA, podem ser armazenados em servidores vulneráveis ou serem acessados por terceiros mal-intencionados.
E se a IA erra, quem é responsabilizado? Quando a IA causa danos como os mencionados acima, muitas empresas terminam não assumindo a culpa. Uma desculpa pouco ética que já virou universal é que “algoritmo decidiu”. Mas se os erros são “falhas técnicas”, então quem programou o sistema? Quem decidiu usá-lo sem testes? Quem é o responsável pelo seu desenvolvimento? É comum que as empresas não sejam punidas quando esses erros ocorrem, justamente por causa dessa “área nebulosa” na legislação que não aborda normas e controles e acaba não cobrindo todos os abusos da IA. Por isso, a falta de responsabilização e sobretudo de punição, muitas vezes torna a IA um sistema perigoso para a sociedade.
Bitrix24 é um espaço de trabalho on-line com IA que ajuda você a trabalhar de forma mais inteligente, melhor e mais rápida. Grátis para sempre, usuários ilimitados.
COMECE GRÁTIS AGORAA integração da IA no ambiente corporativo, considerando valores éticos, sociais, evita danos e fortalece a confiança e a credibilidade das empresas. Por isso, hoje, mais do que nunca, as organizações devem projetar sistemas que adotam princípios de ética, como transparência, justiça e responsabilidade, em seus sistemas de IA. E as que já o fazem, demonstram compromisso com valores sociais e respeito aos direitos humanos. Isso inclui desde o desenvolvimento ou escolha consciente de algoritmos livres de vieses até a comunicação clara sobre como as tecnologias baseadas em IA são utilizadas em processos decisórios. Quando a ética guia o desenvolvimento e a utilização da inteligência artificial, os benefícios se estendem além da eficiência operacional, promovendo um ecossistema mais inclusivo e sustentável.
Nas áreas profissionais onde a inteligência artificial é mais utilizada, o uso de plataformas sérias e responsáveis é primordial para garantir práticas éticas e transparentes. Ferramentas de IA podem ser grandes aliadas no recrutamento, personalização de campanhas, no relacionamento com o cliente e na análise de dados, mas seu uso deve ser pautado pelo respeito à privacidade dos usuários, pela veracidade das informações e pela inclusão de diferentes perfis de consumidores.
Empresas comprometidas com a ética devem adotar políticas claras de uso de IA, realizar auditorias periódicas para identificar possíveis falhas e garantir que suas comunicações automatizadas sejam sempre transparentes quanto à participação de sistemas inteligentes.
Além disso, um projeto de governança de IA e a colaboração entre governos, setor privado e academia é essencial para estabelecer padrões de ética mais sólidos e regulamentações atualizadas, para abordar os danos individuais e coletivos da IA. Iniciativas como a "Recomendação sobre a Ética da IA" da UNESCO e ferramentas de "Avaliação de Impacto Ético" (EIA) são exemplos que reforçam aspectos de responsabilidade no uso da IA e também de como a sociedade pode equilibrar inovação e proteção de dados. Ao priorizar a ética, as empresas podem reduzir riscos e se posicionar como líderes em desenvolvimento e uma transformação digital responsável, onde a IA serve à sociedade e ao bem comum. Como toda tecnologia que facilita processos e possibilita descobertas, a inteligência artificial pode e deve ser incentivada, mas sempre com ética, privacidade, justiça e responsabilidade.