- 24 Fev 2024, 21:29
#127546
Derivada do grego, a palavra “ética” significa comportamento, hábito e pode ser entendida como o conjunto de princípios morais que regem o comportamento de indivíduos e grupos sociais. No mundo digital, a ética surge para garantir a segurança, a dignidade e a privacidade das pessoas no ambiente virtual. A Inteligência Artificial, também chamada de IA, foi criada com o objetivo de realizar tarefas e facilitar o dia-a-dia dos seres humanos. Desde buscas, compras na internet, publicidades, até serviços bancários e atendimento ao usuário são realizados por essas tecnologias. No entanto, apesar de todas as vantagens, as IAs também podem oferecer riscos quando usadas negativamente.
Os algoritmos por trás dessas máquinas podem “aprender” rapidamente com nossos hábitos. Uma pesquisa da Agência Nacional da Austrália testou a capacidade das IAs de influenciar as escolhas dos participantes. Como resultado, elas aprenderam com as respostas deles, direcionando suas vulnerabilidades nas tomadas de decisões e orientando, ainda, os participantes para ações específicas. Esse é um exemplo das capacidades das IAs. Elas também podem gerar fake news e deepfakes (imagens criadas para reproduzir a aparência, expressões e até a voz de uma pessoa), causar problemas com a privacidade de dados dos usuários, ser usada para estimular a nudez não-consesual e a pornografia intantil.
Em 2016, a Microsoft liberou o aprendizado de máquina tendo a plataforma Twitter como fonte de dados. Em menos de 24 horas, o robô se tornou racista. O caso serve de alerta sobre como os sistemas de treinamento devem ter boas fontes de dados. Uma ferramenta para o mal uso de dados é o Data Loss Prevention (DLP), que atua evitando a perda e acesso não autorizado a dados confidenciais. Ao detectar qualquer violação, o DLP envia alertas para a correção de erros e reforça a segurança e a criptografia, de modo que os riscos aos projetos computacionais sejam reduzidos, garantindo maior segurança.
Todos esses exemplos reforçam a importância do uso cauteloso das Inteligências Artificiais. Uma postura ética faz-se necessária quanto ao seu uso, somente dessa forma será possível uma transformação digital responsável. Além disso, a criação de regras para o uso dessas tecnologias é essencial, visto que muitas vezes elas estão sujeitas ao uso de pessoas com intenções negativas por trás.
Os algoritmos por trás dessas máquinas podem “aprender” rapidamente com nossos hábitos. Uma pesquisa da Agência Nacional da Austrália testou a capacidade das IAs de influenciar as escolhas dos participantes. Como resultado, elas aprenderam com as respostas deles, direcionando suas vulnerabilidades nas tomadas de decisões e orientando, ainda, os participantes para ações específicas. Esse é um exemplo das capacidades das IAs. Elas também podem gerar fake news e deepfakes (imagens criadas para reproduzir a aparência, expressões e até a voz de uma pessoa), causar problemas com a privacidade de dados dos usuários, ser usada para estimular a nudez não-consesual e a pornografia intantil.
Em 2016, a Microsoft liberou o aprendizado de máquina tendo a plataforma Twitter como fonte de dados. Em menos de 24 horas, o robô se tornou racista. O caso serve de alerta sobre como os sistemas de treinamento devem ter boas fontes de dados. Uma ferramenta para o mal uso de dados é o Data Loss Prevention (DLP), que atua evitando a perda e acesso não autorizado a dados confidenciais. Ao detectar qualquer violação, o DLP envia alertas para a correção de erros e reforça a segurança e a criptografia, de modo que os riscos aos projetos computacionais sejam reduzidos, garantindo maior segurança.
Todos esses exemplos reforçam a importância do uso cauteloso das Inteligências Artificiais. Uma postura ética faz-se necessária quanto ao seu uso, somente dessa forma será possível uma transformação digital responsável. Além disso, a criação de regras para o uso dessas tecnologias é essencial, visto que muitas vezes elas estão sujeitas ao uso de pessoas com intenções negativas por trás.