Num mundo movido por algoritmos, como podemos garantir que a inovação não ocorra à custa dos nossos direitos humanos mais fundamentais – privacidade e segurança? Como conseguir esse equilíbrio?


Robert Janssen
Presidente da Assespro-RJ
27 de Novembro 13:51
  • Enviar por e-mail
    Enviar por e-mail
    Para múltiplos destinatários separe os e-mails por vírgula.
  • Salvar em PDF

Que estamos vivendo um período único de maior aceleração da inovação é fato. Antes mesmo da pandemia, o mundo já estava em aceleração e o Covid se tornou um aditivo potencializador. Mas é a versão generativa da inteligência artificial que está pisando definitivamente no acelerador. E agora vivemos uma época onde a obsolescência pode ocorrer no mesmo dia. Enquanto foram poucos que conseguiram aproveitar a primeira “corrida do ouro”, agora somos um planeta correndo na mesma direção.


A IA está remodelando o mundo, oferecendo avanços inovadores em saúde, educação, transporte e muito mais. Desde análises preditivas que melhoram os diagnósticos médicos até soluções baseadas em IA para o planejamento urbano. Estas inovações prometem eficiência, acessibilidade e a oportunidade de resolver problemas numa escala sem precedentes.


→ Veja também: Assespro Podcast sobre tendências tecnológicas para 2025 aborda o uso da IA pelas empresas.


No entanto, com esse poder vem a responsabilidade. As próprias tecnologias com base na IA e que impulsionam a inovação, também podem ser usadas como arma contra a privacidade e a segurança. A dependência inerente da IA nos dados cria uma faca de dois gumes. Enquanto adotar grandes conjuntos de dados para promover uma muito maior eficácia, também se corre o risco de exposição de diversas vulnerabilidades.


O reconhecimento facial alimentado por IA, por exemplo, revolucionou a segurança, mas corre o risco de ser utilizado indevidamente para vigilância invasiva, minando as liberdades pessoais. Outra grande preocupação é o preconceito e discriminação. Algoritmos, treinados em conjuntos de dados tendenciosos, podem perpetuar ou exacerbar as desigualdades, levando a resultados injustos na contratação, nos empréstimos e na justiça criminal. E à medida que mais dados confidenciais são coletados e analisados, os riscos de violações e roubo de identidade aumentam exponencialmente.


Existem premissas que a sociedade já tem um entendimento comum para alcançar o equilíbrio entre o benefício inovador da IA e a necessidade de proteção e integridade dos indivíduos. Para isso se torna imperativo o desenvolvimento transparente de IA através do incentivo na adoção de algoritmos abertos e processos de tomada de decisão acordadas e adotadas por todos personagens para assim construir maior confiança.


Isso implica na implementação de uma governança de dados e na defesa de regulamentações rígidas e diretrizes éticas para proteger os dados do usuário junto com a criação de sistemas de IA que priorizem o controle e o consentimento do usuário. E tendo em vista que o impacto da IA na sociedade é de ordem planetária, vai ser fundamental também existir uma colaboração global para definir padrões éticos e de segurança da IA.


Foi com esse intuito, que a WITSA – World Innovation Technology and Services Alliance criou uma força tarefa permanente (AI Taskforce), para sugerir e acompanhar os processos de adequação dos ambientes regulatórios visando salvaguardar o necessário equilíbrio entre os benefícios advindos da capacidade inovadora da IA com os desafios do uso ético e da proteção dos dados pessoais dos cidadãos.


O resultado dessa iniciativa, fez com que a Assespro Rio de Janeiro, no seu compromisso de ser um agente catalisador de inovação, criasse o AI Summit in Rio, o AI Assespro Talks, o AI Assespro Podcast e dois compêndios (Policy Papers) de recomendações para os governantes e legisladores que tem o desafio de encaminhar um framework regulatório que alcance o equilíbrio tao desejado e necessário.


Clique aqui para fazer o download da 2ª edição do Policy Paper da WITSA.


Comentários
Carregando...