terça-feira,24 setembro, 2024

Inteligência Artificial traz debate sobre avanços e consequências da tecnologia

Ao decorrer do tempo, a humanidade desenvolveu diversos mecanismos para otimizar processos cotidianos e suprir necessidades de consumo. Atividades de trabalho e lazer, por exemplo, ganharam recursos que hoje são essenciais para a sociedade. Com o avanço tecnológico, novas possibilidades surgiram para suprir essas demandas, como a criação da inteligência artificial (IA).

IA é um segmento de pesquisa da ciência da computação que visa criar dispositivos capazes de simular capacidades dos seres humanos, com base em símbolos computacionais. Os primeiros estudos da área se deram nos anos 50, com os cientistas Hebert Simon e Allen Newell, criadores do primeiro laboratório de inteligência artificial na Universidade de Carnegie Mellon, nos Estados Unidos.

Hoje, a inteligência artificial se tornou uma tendência ao redor do mundo e é considerada um marco de desenvolvimento tecnológico e social. É responsável por trazer uma nova realidade, na qual máquinas conseguem realizar atividades que envolvem características do pensamento humano, como a resolução de problemas.

Essa tecnologia está envolvida em várias áreas do conhecimento, como jogos, procedimentos médicos e robótica. Por isso, o segmento é um dos mais promissores no mercado de trabalho.

Serviços e produtos de assistência virtual são os exemplos de chatbots baseados em IA que fazem parte do cotidiano de muitas pessoas  — Foto: Getty Images
Serviços e produtos de assistência virtual são os exemplos de chatbots baseados em IA que fazem parte do cotidiano de muitas pessoas — Foto: Getty Images

O avanço dessas tecnologias são fundamentais para a sociedade, mas trazem uma dúvida: até onde pode ir a inteligência artificial? O receio vai para além da visão fantasiosa de que robôs podem ganhar autonomia e dominar o mundo. Parte da sociedade já identifica problemas reais, como o desemprego pela inversão da lógica de trabalho, na qual a máquina pode exercer a função do trabalhador.

Além disso, a questão do fornecimento e coleta de dados traz preocupações. Em meio a “guerra da informação”, grandes empresas criam cada vez mais mecanismos para mapear os seus usuários, gerando um controle social. Assistentes virtuais, como a Siri e a Alexa, atuam ativamente nesse processo. Em decorrência dessa problemática, medidas como a Lei Geral de Proteção de Dados, estão sendo criadas para proteger a privacidade da população.

Vasco Furtado, coordenador do Laboratório de Ciência de Dados e Inteligência Artificial (LCDIA) da Universidade de Fortaleza – da Fundação Edson Queiroz –, aponta que uma das problemáticas que engloba esse universo é a coleção de dados considerados ruins, sem credibilidade, que atrapalham os resultados de plataformas e máquinas.

Vasco Furtado, coordenador do LCDIA da Unifor — Foto: Acervo pessoal

“O maior sucesso atual da IA está na capacidade da máquina aprender a partir de dados. A máxima conhecida na computação de que ‘lixo que entra é lixo que sai’ ganha, com a IA, uma nova roupagem. Se os dados usados pela máquina para aprender são de qualidade ruim, o aprendizado é ruim” – Vasco Furtado, coordenador do LCDIA da Unifor.

“Dados enviesados, por exemplo, são encontrados com uma frequência grande. Eles podem ser enviesados a gênero, raça, escolaridade etc. Os dados podem ser enviesados por representarem um preconceito ou exclusão social que não estão explicitamente expostos”, complementa.

O docente relata que, em recentes pesquisas que desenvolveu com assistentes de voz, notou que eles têm mais dificuldade de compreender o linguajar do nordestino do que do sulista. Segundo ele, isso se dá, provavelmente, pelo fato de que as tecnologias “aprenderam” a compreender a voz com mais exemplos de áudios de sulistas que nordestinos.

Esse tipo de cenário ficou evidente a partir de testes realizados em 2018 por pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) e da Universidade de Stanford. Resultados apontaram que sistemas de reconhecimento facial apresentam uma margem de erro pequena quando testada em homens brancos (0.8%), mas bastante elevada quando testada em mulheres negras (de 20% a 34%). Isso faz com que, por exemplo, pessoas sejam detidas de forma injusta por sistemas policiais que utilizam a tecnologia.

Por: Unifor

360 News
360 Newshttp://www.360news.com.br
1º Hub de notícias sobre inovação e tendências da região Centro-Oeste e Norte do Brasil.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

LEIA MAIS

Recomendados