Inteligência artificial: literacia digital e formação para lidar com riscos
O aumento de ciberbullying e os métodos de ensino obsoletos, num momento em que a inteligência artificial invadiu a sociedade, dominaram o debate na iniciativa “AcademIA”, do projeto Net Viva e Segura.

“Se pudesse, parava o País para trabalhar a literacia digital de uma forma séria.” A provocação em tom de urgência chegou de Hélder Bastos, da Unidade Nacional de Combate ao Cibercrime e à Criminalidade Tecnológica da Polícia Judiciária (PJ), durante o debate sobre os novos desafios no digital com a inteligência artificial (IA), iniciativa “AcademIA”, do projeto “Net Viva e Segura”, da DECO PROteste em parceria com a Google.
Parece exagero? Aquele especialista da PJ inquietou a plateia com um exemplo bem próximo. “O crime ‘Olá mãe, olá pai’ ainda é o mais comum e está cada vez mais sofisticado, com a utilização de inteligência artificial, treinada com dados, fotografias e vídeos, que estão expostos nas redes sociais”, sublinhou Hélder Bastos.
Pouco conhecimento; falta de discussão sobre os riscos da IA; necessidade de capacitar a sociedade, pais e educadores, não apenas os jovens… os alertas sucederam-se, na mesma linha, entre os diferentes especialistas de dados ou de áreas como o direito e a proteção de dados, que participaram no debate.
“Linha nacional de apoio para bullying é essencial”
Foi preciso o sobressalto de uma série da Netflix para nos despertar a todos para o impacto que o digital pode ter na vida de um adolescente e para o facto de a nossa casa não ser sinónimo de ambiente seguro.
Os dados até já andavam por cá. “Num inquérito a jovens dos 11 aos 18 anos, em 31 mil inquiridos, cerca de 2 mil reportaram já ter sido vítimas de ciberbullying.” No arranque da AcademIA, Margarida Balseiro Lopes, ministra da Juventude e Modernização, recordou o estudo que deu origem a um grupo de trabalho, criado para ajudar professores e assistentes operacionais, por exemplo, com guiões para saberem como agir em situações de bullying.
A criação de uma linha nacional anónima de denúncia de casos e de apoio a alunos vítimas de bullying foi outra das necessidades identificadas. “Qualquer Governo vai ter de criar respostas para este problema”, sublinhou a ministra.
Incentivar o lado útil e bom da inteligência artificial
A inteligência artificial pode estar ao serviço da deteção de ciberbullying, na visão de Bernardo Caldas. Este especialista em dados e inteligência artificial defendeu que, se há uma utilização de IA negativa ou mais preguiçosa, não é por motivos tecnológicos, mas sempre de origem humana.
Nessa altura, já o debate abordava os modelos de ensino nas escolas, com críticas de todos os participantes: “São modelos que incentivam mais a absorver conhecimento e estimulam menos a vontade intrínseca de perceber e aprender”, sintetizou Bernardo Caldas. Os mesmos métodos que levam os alunos a preferir um sistema de IA que faça o trabalho por eles, em detrimento de sistemas de IA mais interativos, que orientam na tarefa e recriam o caminho de um professor.
Regulação e educação aliadas de uma utilização crítica
“A regulação não chega, mas não podemos não ter regulação.” Adolfo Mesquita Nunes, advogado, focado em direito público e regulatório, admitiu que a inteligência artificial está a desafiar o direito, os conceitos e o que deve ser a regulação. Exemplificou com o regulamento europeu “AI Act”, que entrou em vigor em agosto do ano passado e que proíbe a manipulação de pessoas vulneráveis, quando a realidade já nos confronta com produtos de seguradoras à medida, por exemplo, tendo em conta o histórico de doenças. Para Adolfo, “é uma ilusão pensar que o nosso espírito crítico nos salva”, quando vivemos “em bolhas” e já limitados pela personalização dos algoritmos.
Magda Cocco, também advogada, especialista em proteção de dados, salientou que, à regulação, devemos aliar a capacitação e educação das pessoas, sobretudo dos jovens, para protegerem a sua privacidade e verificarem sempre fontes.
Como ilustrou Bernardo Caldas para sublinhar a importância de sociedade e empresas estarem preparadas e terem independência intelectual face às máquinas, “já temos calculadoras, e continuamos a ensinar a fazer contas e tabuadas”.
O painel concordou que o caminho não é a autorregulação, porque ainda não há conhecimento técnico suficiente. Por sua vez, é preciso dar ao consumidor a opção de não ter personalização na forma como consome, seja música, produtos ou até a procura de notícias.
Gostou deste conteúdo? Junte-se à nossa missão!
Subscreva já e faça parte da mudança. Saber é poder!
O conteúdo deste artigo pode ser reproduzido para fins não-comerciais com o consentimento expresso da DECO PROTeste, com indicação da fonte e ligação para esta página. Ver Termos e Condições. |