© Foto / Pixabay / geralt
Especiais
À Sputnik Brasil, especialistas destacam que a regulamentação do uso
da inteligência artificial deve ser feita sem cessar sua evolução e
apontam que a conscientização do compartilhamento de informação é um dos
maiores desafios deste século.
A inteligência artificial (IA) faz parte do cotidiano e vem ganhando mais espaço rapidamente.
Ela está presente em aplicativos que usam cliques para direcionar
futuras pesquisas, em eletrodomésticos que funcionam sozinhos e
acionados à distância, na segurança pública, por meio de câmeras de reconhecimento facial, e até mesmo na saúde, com procedimentos cirúrgicos que hoje contam com auxílio de robôs.
Em entrevista à Sputnik Brasil, Claudio Miceli, professor do
Instituto Tércio Pacitti de Aplicações e Pesquisas Computacionais (NCE) e
do Programa de Engenharia de Sistemas e Computação (PESC), ambos da
Universidade Federal do Rio de Janeiro (UFRJ); e Vandor Rissoli,
professor de engenharia de software da Universidade de Brasília (UnB) e
coordenador do Laboratório de Tecnologias Educacionais (LaTEd), também
da UnB, explicam que a inteligência artificial tem potencial para
melhorar em grande escala a qualidade de vida do ser humano, mas vem acompanhada de riscos e necessita de regulamentação.
Vandor Rissoli destaca que, embora seja mais comentada nos últimos anos, a IA já faz parte da rotina humana há décadas. Ele explica que a tecnologia surgiu na década de 1950,
“com o objetivo de desenvolver ou evoluir tecnologias que tivessem a
capacidade de imitação do comportamento inteligente humano”, e desde
então vem aumentando sua presença no cotidiano.
“Os recursos e lógicas provenientes da IA já fazem parte do nosso dia
a dia, embora muitas vezes nós não os percebamos. Eles contribuem desde
a melhor escolha do sinal do seu celular para comunicação, assim como
tarefas que proporcionarão sua maior produtividade, até a otimização de
processos, que tenham a participação humana ou de robôs que realizam
atividades repetitivas com maior eficiência, reduzindo possíveis falhas”
diz Rissoli.

Ciência e sociedade
Inteligência Artificial revela nanoestruturas que contribuem para o avanço microeletrônico (FOTO)
16 de janeiro, 05:05
Porém ele acrescenta que, apesar dos inúmeros avanços, “o elevado potencial de processamento da IA se apresenta ainda bem limitado quando comparado ao cérebro humano”. Ele cita como exemplo os chatbots,
que são robôs de conversação muito usados em atendimentos on-line. “Na
interação inusitada, quando são misturados dados que são reais mas não
têm vínculo entre si, um robô de conversação vai produzir um retorno
incoerente.”
Claudio Miceli concorda que a inteligência artificial traz
facilidades no acesso a serviços. “A gente vê isso desde em coisas como
ChatGPT […] até […] aplicativos de banco, que vão oferecer um tipo
melhor de interação que não temos, às vezes, indo à agência bancária.”
Porém Miceli alerta que toda essa comodidade traz consigo o risco de expor dados pessoais a sistemas desconhecidos
de empresas que não se sabe o que farão com essa informação. Ele
acrescenta que “essa hipermecanização faz com que, rapidamente, empregos
desapareçam, sem que haja uma transição de trabalho”. “A tecnologia
traz muitos empregos, com certeza. Mas desde que você capacite a mão de
obra, então tem que ter uma política para que isso aconteça”, argumenta
Miceli.
Atualmente, o Senado debate algumas propostas para regulamentar o uso da IA no Brasil,
discutindo, por exemplo, o uso de câmeras para reconhecimento facial.
Questionado sobre quais são os desafios para a regulamentação dos
sistemas de IA, Miceli destaca dois pontos que considera principais.
“Nosso principal desafio é a gente entender o que significa IA. O
robô aspirador da sua casa pode estar usando IA para aprender qual
cômodo deve varrer. Mas, ao mesmo tempo, será que a empresa que está
coletando esses dados não tem agora um mapa da sua casa? Ou, quando
dizemos ‘Hello, Siri’ ou ‘Oi, Google’, esses sistemas começam a coletar
suas informações? Regulamentar significa regulamentar a IA ou esse
tráfego de informação que ela pode tomar?”, questiona Miceli.
Em segundo lugar ele aponta a regulamentação do que chama de culpabilidade da decisão tomada pela IA, pois a tecnologia, embora avançada, também é passível de erros.
“Imagina que uma câmera de reconhecimento facial diz que alguém é um
bandido, quando na verdade não é. Como é que a polícia vai acreditar
nisso? A pessoa vai ser detida, presa para posterior averiguação”, diz
Miceli, acrescentando já terem acontecido casos como esse.

Panorama internacional
Apesar de sanções, empresas dos EUA investiram cerca de US$ 40 bi no setor de IA chinês, diz mídia
2 de fevereiro, 14:19
Segundo ele, a regulamentação tem o desafio de garantir que o uso da IA seja responsável e ético.
“Garantir que ela [a IA] não seja discriminatória, que seja possível
analisar o processo de decisão [tomado pelo sistema]. Ou seja, o
resultado é interpretável, como foi que ela chegou a essa conclusão? São
desafios muito grandes, alguns são até desafios de pesquisa. Por isso
tenho um pouco de receio de como essa regulamentação vai ser feita.”
Rissoli destaca que a regulamentação “corresponde a um grande
desafio, que deve contar com a participação de todos os interessados”.
No entanto ele destaca que, em sua área específica, a IA é uma
tecnologia relativamente nova, por isso “a regulamentação não pode
restringir sua evolução”. Ele afirma que a regulamentação deve focar “em
fazer da IA uma área centrada nas demandas humanas“.
“Procurar contribuir com os aspectos de inovação dessa tecnologia no
nosso país. Promover, com a regulamentação, a utilização dela para
desenvolvimento sustentável, segurança jurídica, proteção dos direitos
humanos, respeito à privacidade”, explica Rissoli.
Ele também considera importante que “a regulamentação imponha punição aos que desrespeitarem as regras de responsabilidade”.
A inteligência artificial pode cimentar a privacidade como um conceito obsoleto?
Questionado sobre se será possível acomodar a privacidade ao avanço do uso da IA,
Miceli diz que esse tema foi debatido durante a discussão da Lei Geral
de Proteção de Dados Pessoais (LGPD), em que se abordou quais dados são
públicos e quais não são.
Porém ele afirma que ainda tem “muitas reticências sobre essa questão, sobre o que é privacidade no mundo digital”.
“Para ter privacidade em uma era de dados devassados, é preciso ter
muita consciência de quais serviços você está acessando, do que você
disponibiliza nas redes sociais, de quais permissões dá para que as
redes acessem esses dados.”
Ele acrescenta que considera ser necessário investir em
educação digital, que inclui essas questões. “Uma educação digital
diferente da que a gente tem dado à população. A gente tem dado cada vez
mais novos produtos, mas sem alertar para os riscos”, explica Miceli.
Na avaliação de Miceli, um dos principais desafios do começo deste século será a conscientização do compartilhamento de dados. Ele explica que nos sistemas de IA o aprendizado da máquina depende do fornecimento de dados.
Miceli diz que o importante é que esse compartilhamento seja uma
escolha do usuário. Nesse contexto, “a privacidade deixa de ser algo
inato e passa a ser uma opção consciente”.

Ciência e sociedade
China supera os EUA em produção e qualidade de pesquisa sobre IA, diz estudo
15 de janeiro, 19:49
“Tem de haver uma campanha de conscientização do
compartilhamento de informação, coisa que hoje, na sociedade,
infelizmente não tem. E é muito severo, acho que é um dos grandes
problemas do começo deste século, a gente ainda não está entendendo o
boom de informações deste mundo digital que está se formando.”
Rissoli concorda com a importância de se investir em educação digital, “para que as pessoas tenham um melhor esclarecimento do uso contínuo dos recursos tecnológicos”.
“Porque, com todas as potencialidades desses recursos, pessoas com
interesses não tão nobres também podem utilizá-los para obter alguma
vantagem. É importante um melhor esclarecimento dos usuários não só no
aspecto da inteligência artificial, mas da tecnologia de um modo geral, a
fim de que possam se expor menos.”
Ele conclui afirmando que a questão da regulamentação do uso da IA não pode se tornar uma dificuldade.
“A inteligência artificial continua em evolução, é muito jovem a
ciência em si. Se, de repente, ocorrer uma regulamentação nacional sem
ouvir, sem abrir espaço para todos que têm interesse e que podem se
beneficiar dela, [a regulamentação] pode causar restrições e conter um
pouco da evolução que ela [a IA] pode atingir e toda a inovação que ela
vem produzindo não só no nosso país, mas em nível mundial.”