- 21 Mai 2024, 15:11
#129779
A quarta Revolução Industrial marcada em 2010 trouxe constantes evoluções no âmbito tecnológico com softwares, robótica e a inteligência artificial. Em contrapartida, o uso dessas ferramentas se tornaram cada vez mais naturais no dia-a-dia de pessoas e empresas, porém, deve-se discutir a privacidade da coleta de dados e a falta de transparência nas tomadas de decisões.
Observa-se, em primeira instância, os utensílios de inteligência lida diariamente com grandes volumes de dados, sendo muitas vezes para facilitação no controle, tomada de decisões e visualizações. Nesse sentido, não há transparência no modo em que são armazenados, sendo questionável o tempo que se mantém nos sistemas e para onde vão. No entanto, pode haver uma crescente insegurança na privacidade desses dados para uso indevido de informações sensíveis.
Em segunda instância, às máquinas de Inteligência artificial foram programadas para tomadas de decisões e ideias mais parecidas com a inteligência humana. Em decorrência disso, a falta de transparência da IA é um dos fatores que acarretam a discriminações, pois são influenciados pelo viés do humano que os treinam. Além disso, fica complicado o entendimento dos critérios utilizados para aquela decisão, podendo ser um tanto como discriminatória e preconceituosa.
Diante dessa problemática, torna-se evidente, que ao automatizar serviços com o uso da Inteligência Artificial, cabe a instituição investir em políticas de segurança de dados que deixem claro a destinação e onde será utilizado, e função do programador fazer que o robô seja totalmente imparcial nas tomadas de decisões. Para reverter a insegurança no uso das máquinas, a fim de se precaver de ataques e decisões discrimicatórias.
Observa-se, em primeira instância, os utensílios de inteligência lida diariamente com grandes volumes de dados, sendo muitas vezes para facilitação no controle, tomada de decisões e visualizações. Nesse sentido, não há transparência no modo em que são armazenados, sendo questionável o tempo que se mantém nos sistemas e para onde vão. No entanto, pode haver uma crescente insegurança na privacidade desses dados para uso indevido de informações sensíveis.
Em segunda instância, às máquinas de Inteligência artificial foram programadas para tomadas de decisões e ideias mais parecidas com a inteligência humana. Em decorrência disso, a falta de transparência da IA é um dos fatores que acarretam a discriminações, pois são influenciados pelo viés do humano que os treinam. Além disso, fica complicado o entendimento dos critérios utilizados para aquela decisão, podendo ser um tanto como discriminatória e preconceituosa.
Diante dessa problemática, torna-se evidente, que ao automatizar serviços com o uso da Inteligência Artificial, cabe a instituição investir em políticas de segurança de dados que deixem claro a destinação e onde será utilizado, e função do programador fazer que o robô seja totalmente imparcial nas tomadas de decisões. Para reverter a insegurança no uso das máquinas, a fim de se precaver de ataques e decisões discrimicatórias.