Inteligência Artificial e Ética

Antes de aprofundar no assunto, falaremos rapidamente sobre o que é a ética de forma geral. Ética é um domínio do pensamento humano comum, ela se preocupa com o que significa viver uma vida próspera e com o que devemos moralmente aos outros. Os filósofos expõem teorias de bem-estar e moralidade e as suas inter-relações, todos fazemos escolhas constantemente que refletem respostas a estas questões, por mais iniciantes ou inconscientes que sejam.

As Inteligências Artificiais são criadas com viés ideológico de seus criadores, recebendo e estabelecendo novos padrões algorítmicos que irão guardar essas informações e determinar quais ações devem ser tomadas mediante tal situação. Entretanto, uma IA não consegue fazer análise crítica para saber se seus criadores estão conforme o considerado ético na sociedade. A ideia é que ela seja usada corretamente de forma justa e neutra, para obtermos mudanças positivas para a sociedade, sem tomadas de decisões enviesadas e até mesmo racistas. Logo, o seu envolvimento com a ética é inevitável no momento de definir os padrões algorítmicos.

Sabendo que a IA pode analisar dados em uma velocidade muito maior que a de nós humanos, atualmente existem softwares para prever futuros criminosos que geram pontuações para avaliar o risco que cada pessoa representa, mas, essa avaliação pode gerar um resultado baseado no preconceito, então em 2014  o procurador-geral dos EUA, Eric Holder, pediu que a Comissão de Penas dos EUA estudasse seu uso. “Embora estas medidas tenham sido elaboradas com a melhor das intenções, estou preocupado de que elas prejudiquem inadvertidamente os nossos esforços para garantir justiça individualizada e igualitária”, disse ele, acrescentando: “eles podem exacerbar injustificadamente e disparidades injustas que já são demasiado comuns no nosso sistema de justiça criminal e na nossa sociedade.”

A quem diga que com os atuais avanços na tecnologia haja uma diminuição no aprendizado puramente inserido por humanos na IA e passa a ter uma aprendizagem automática, isso quer dizer que o sistema irá aprender baseado nos dados de combinação algorítmica e nas tomadas de decisões sem ser explicitamente programado, então ocorre uma série de etapas para que o computador possa ter uma precisão melhor baseada nos dados coletados e chegue a solução do problema de forma justa, para que gere mudanças positivas para a sociedade, porque os seres humanos podem ser guiados de forma tendenciosa pelo preconceito e instinto.

No ano de 2015 Barbara Grosz introduziu um novo curso dentro do ensino de Ciência da Computação em Harvard chamado de “Design de Sistemas Inteligentes e Desafios Éticos” com a ideia de que a ética deveria ser fortemente integrada em todos os cursos de tecnologia visando instruir as pessoas que irão construir os futuros sistemas de IA sobre como identificar e refletir sobre questões éticas, “Minha fantasia”, diz Grosz, “é que todo curso de ciência da computação, com talvez uma ou duas exceções, teria um módulo de ética”, de modo que, ao se formar, todo concentrador veria que “a ética é importante em todos os lugares da área – não apenas em IA.” Grosz em 2017 ganhou o prêmio pelo conjunto de sua obra da Association for Computational Linguistics, e diz que “Temos mais a temer de sistemas estúpidos que as pessoas consideram inteligentes do que de sistemas inteligentes que conhecem os seus limites.”

No momento da criação da IA, pode acontecer de colocarem dados que reflitam a discriminação histórica, gerando resultados tendenciosos – um preconceito não intencional. Isso porque o software não tem o bom senso e a mesma capacidade de raciocínio que o ser humano. Aqui surge o questionamento se os desenvolvedores têm o conhecimento necessário para colocar nos algoritmos um julgamento ético e comercial de forma justa, já que, geralmente, os desenvolvedores não têm experiência e formação para lidar com dilemas éticos e complexos.

A partir disso, os alunos se deparam com o desafio de abordar os problemas de preconceito, a necessidade de interpretabilidade humana e devem criar os sistemas com princípios éticos desde o início. Tendo em vista que a IA foi criada para operar em grande escala, quando ocorre um problema ele afeta todas as pessoas com as quais a tecnologia interage. Portanto, após o período de desenvolvimento, a IA precisa ser testada quantas vezes forem necessárias antes de liberar seu uso em grande escala, garantindo que não haja riscos éticos graves e que gere um bom impacto para a sociedade.

Um dado interessante é que a rede de televisão Bayerischer Rundfunk com sede em Munique, na Alemanha, estabeleceu 10 diretrizes éticas para o uso da inteligência artificial, proporcionando um benefício de agilidade para seus usuários e colaboradores, no intuito de fazer um bom jornalismo, sendo elas:

  1. Benefício para o usuário;
  2. Transparência e Discurso;
  3. Diversidade e foco regional;
  4. Cultura de dados consciente;
  5. Personalização Responsável;
  6. Controle Editorial;
  7. Aprendizagem Ágil;
  8. Parcerias;
  9. Aquisição de talentos e habilidades;
  10. Reflexão Interdisciplinar.

Em 1950 Isaac Asimov lançou o livro “Eu, Robô”, neste livro ele formulou o que conhecemos como “As Três Leis da Robótica”, elas foram criadas como uma maneira de explorar as implicações éticas e morais da criação de robôs, implicando regras e limites.

1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.

2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.

3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei.

Mais tarde, Asimov acrescentou a “Lei Zero”, acima de todas as outras: um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

O propósito delas é garantir que os robôs mantenham a segurança e o bem-estar da humanidade, a fim de que as máquinas autônomas sigam padrões éticos e respeitem os valores humanos. Assim, a responsabilidade na era tecnológica precisa estar centrada no foco humano e os questionamentos devem ser direcionados a quem está construindo a lógica desses softwares, fazer com que a IA tome decisões baseadas em estatísticas pode gerar restrições em relação à evolução humana.

No que se refere a IA e ética, reconhecemos a sua importância, que é uma ferramenta poderosa e é perceptível que devemos melhorar o ensino de ética aos alunos, para que seu uso seja responsável e benéfico para todos. Embora a IA aprenda mais rápido que o ser humano e no longo prazo seja mais barata que a mão de obra humana, podemos levar as pessoas a se concentrar naquilo em que realmente são boas e gostam, jamais esquecendo a empatia humana no profissionalismo.

Por Rayani Selim em parceria com a Fteam.

Referências:

TASIOULAS, John. Artificial Intelligence, Humanistic Ethics, 2022

https://direct.mit.edu/daed/article/151/2/232/110615/Artificial-Intelligence-Humanistic-Ethics

ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias. 2016. Disponível em:

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

Leis da Robótica, 2020.

https://pt.wikipedia.org/wiki/Leis_da_Rob%C3%B3tica

SHAW, Jonathan. Artificial Intelligence and Ethics, 2019.

https://www.harvardmagazine.com/2018/12/artificial-intelligence-limitations

BLACKMAN, Reid. Why You Need an AI Ethics Committee, 2022.

https://hbr.org/2022/07/why-you-need-an-ai-ethics-committee

BEDFORD-STROHM, Jonas; KÖPPEN, Uli; SCHNEIDER, Cécile. Our AI Ethics Guidelines, 2020.

https://www.br.de/extra/ai-automation-lab-english/ai-ethics100.html

Picture of Fteam | Especialista em Flutter

Fteam | Especialista em Flutter

Compartilhe nas redes sociais

Assine a nossa newsletter

Lorem ipsum dolor sit amet consectetur. Nunc vestibulum purus est nec nunc erat.