É possível conciliar privacidade e inteligência artificial?
A Inteligência Artificial (IA) é uma área da ciência da computação que tem como objetivo estudar e desenvolver sistemas e tecnologias amparadas em algoritmos para realizar tarefas, classificações, previsões e tomar decisões, que reproduzem ocomportamento e o trabalho humano. As aplicações de IA são diversas, desde um chatbot para facilitar interações com clientes até análises de tendências para concessão de crédito, para citar alguns exemplos.
Um ponto em comum a estas tecnologias é a dependência da coleta de grandes quantidades de dados para treinar os algoritmos e adaptá-los ao contexto de uso. A partir destes conjuntos de dados, a IA é capaz de extrair informações valiosas, automatizando trabalhos repetitivos e permitindo que decisões mais objetivas sejam tomadas.
Apesar de suas vantagens, o uso de sistemas de IA traz preocupações para a sociedade e seu rápido desenvolvimento impulsiona discussões jurídicas em diversos países sobre a regulação da tecnologia.
Neste sentido, o Parlamento Europeu aprovou em junho o Regulamento Europeu sobre Inteligência Artificial (EU AI Act), definindo obrigações para sistemas considerados de alto risco. O EU AI Act ainda não foi aprovado definitivamente, mas fornece insights importantes às companhias que pretendem desenvolver ou mesmo que já desenvolvem este tipo de tecnologia. No mesmo sentido, o Congresso brasileiro também possui alguns projetos de lei, ainda em tramitação, acerca do tema. Uns mais maduros que outros.
Em paralelo, desafios jurídicos envolvendo responsabilidade civil, propriedade intelectual e privacidade vem se materializando com a rápida expansão desta tecnologia. Quando os dados tratados se referem a pessoas identificadas ou identificáveis, as regulações de proteção de dados pessoais se aplicam aos sistemas e parece haver uma contradição entre o funcionamento de sistemas de IA e os princípios e regras de privacidade. O objetivo deste texto é jogar luz sobre estas aparentes contradições, bem como apontar possíveis soluções que vêm sendo desenhadas pelo mercado e pelas autoridades reguladoras.
Principais desafios de privacidade em IAs
Os sistemas de inteligência artificial apresentam diversos desafios para os profissionais de privacidade. Neste texto, serão apresentados os três principais, tendo como base os princípios e obrigações previstos na Lei Geral de Proteção de Dados Pessoais brasileira (Lei nº 13.709/2018):
Transparência e não discriminação
Os algoritmos de inteligência artificial aprendem com os dados que os alimentam - uma técnica chamada machine learning. Em outras palavras, o algoritmo é reprogramado pelos dados das bases utilizadas. Isso gera duas consequências em termos de privacidade.
Em primeiro lugar, significa que o “raciocínio” por trás da decisão ou da conclusão da IA pode não ser conhecido ou compreendido pelos próprios desenvolvedores daquela tecnologia. É o chamado “efeito caixa-preta” da IA, prejudicando a capacidade de cumprimento do princípio da transparência do tratamento dos dados.
Em segundo lugar, por conta desta lógica de funcionamento, dados influenciam diretamente nos resultados aos quais chegam a IA, já que são geradas correlações e identificados padrões daquelas bases. Caso os desenvolvedores ou este conjunto de dados estejam enviesados, os resultados da tecnologia podem refletir injustiças estruturais da sociedade, reforçando representações tendenciosas da realidade.
Adequação, necessidade e finalidade
Por conta desta estrutura mutável dos sistemas de inteligência artificial, pode ser difícil prever qual informação será extraída de uma grande base de dados pessoais. Isso significa que é difícil definir previamente uma finalidade específica e legítima para algoritmos complexos. Sem a identificação de um propósito legítimo, também se torna um desafio identificar quais dados representam o mínimo necessário para a tecnologia funcionar corretamente e se os dados utilizados são adequados para o objetivo pretendido.
Segurança e reidentificação
Mesmo que os dados utilizados para treinar um algoritmo sejam despersonalizados, a grande quantidade de informações tratadas pode gerar a reidentificação dos titulares - chamado “efeito mosaico”. Assim, a partir de um conjunto de dados anonimizados, é possível inferir a quem as informações se referem, pelos padrões identificados.
Melhores práticas de privacidade no desenvolvimento de IAs
Tanto no uso quanto no desenvolvimento de sistemas de IA que se utilizam de dados pessoais, há alguns guias de melhores práticas desenvolvidas pelo mercado e por autoridades reguladoras. O objetivo, de forma geral, é minimizar riscos e demonstrar a preocupação dos desenvolvedores da tecnologia com o tema no desenvolvimento e uso destes sistemas.
Em casos de companhias, organizações ou órgãos públicos cuja atividade central ou estratégia para o futuro envolve desenvolvimento da tecnologia, estas boas práticas podem ser geridas por um Comitê de Inteligência Artificial, com representantes de áreas diferentes, como do departamento jurídico, de privacidade e proteção de dados, integridade, segurança, além dos próprios desenvolvedores - em casos de alto risco, inclusive, pode-se considerar a participação de usuários e representantes da sociedade civil.
Políticas e documentação
Um dos pontos de partida para que o desenvolvimento da tecnologia esteja adequado às regras de proteção de dados, é definir processos específicos voltados a este objetivo, formalizados em políticas e procedimentos. Nestes documentos, é importante refletir também as responsabilidades e o papel de cada time que integrará o Comitê de Inteligência Artificial, bem como a estratégia para registrar as fases do desenvolvimento da tecnologia, para demonstrar o compromisso com a privacidade em cada uma das etapas. Seja usando ou desenvolvendo sistemas de IA, as companhias podem manter um inventário destas tecnologias. Um dos principais objetivos deste registro é definir a finalidade determinada, legítima e específica do uso dos dados pessoais naquele sistema, bem como uma lista dos tipos de dados, formas de armazenamento e tratamento. Definir a base legal também é um passo fundamental e deve estar no inventário - afinal, é ela que dá à companhia o direito de tratar dados pessoais.
Desenvolvimento e teste
A finalidade registrada no inventário precisa ser observada na fase de aprendizado (ou seja, no desenho, desenvolvimento e treinamento do sistema com bases de dados não enviesadas) e produção (ou seja, na implantação do sistema). Durante os testes, é importante considerar os grupos vulneráveis que podem ser atingidos pela tecnologia, documentando as medidas implementadas para evitar danos específicos. Para garantir que as legislações sejam cumpridas e os grupos possivelmente afetados sejam considerados, é interessante envolver, no processo de tomada de decisões feitas pela IA, pessoas que acompanhem os outputs do algoritmo. Esta influência humana pode ter níveis diferentes: total controle das decisões da ferramenta; controle apenas para anular eventuais decisões; ou, monitoramento e supervisão, quando é necessário intervir pontualmente, caso haja eventos inesperados. O acompanhamento humano também pode auxiliar o cumprimento do princípio da transparência, permitindo explicar aos titulares as razões para as decisões tomadas, caso estes venham a ser prejudicados por uma decisão da IA. Outro ponto relevante, especialmente considerando o AI Act, é o registro e retenção dos logs de eventos da tecnologia - ou seja, um registro das atividades realizadas pelos desenvolvedores (acesso, edição, exclusão, etc) -, para permitir monitoramento interno e externo, caso necessário.
Avaliações e relatórios de impacto à proteção de dados (RIPD)
Documentar os riscos de privacidade do sistema de IA no uso ou desenvolvimento da IA é essencial para estabelecer a governança da tecnologia e reduzir a probabilidade e o impacto de eventuais danos que possa causar. As autoridades de proteção de dados pessoais europeias possuem ampla documentação sobre como conduzir estes relatórios (data protection impact assessment - DPIA), que podem ser observadas neste contexto, dado que a Autoridade Nacional de Proteção de Dados Pessoais (ANPD) ainda não possui regulamentação sobre o tema. De forma geral, o objetivo é estabelecer um sistema de gestão prevendo, identificando, analisando e definindo medidas adequadas para mitigar ou eliminar os riscos associados à IA. As medidas podem ser, por exemplo, aperfeiçoar a base de dados utilizada para treinar o algoritmo (reduzindo ou eliminando vieses e intercorrências que gerem resultados discriminatórios) ou estabelecer processos de redundância e contingência do sistema (como quando há falhas de algum fornecedor envolvido no funcionamento da tecnologia).
Transparência e informação
Tanto as leis de privacidade e proteção de dados quanto os projetos de lei sobre inteligência artificial ao redor do mundo têm como princípio fundamental a transparência. Isso porque é através da informação acessível que os usuários podem tomar decisões informadas e confiar no uso daquela tecnologia. Dessa forma, ao utilizar ou desenvolver IAs que tratam dados pessoais, é relevante informar aos titulares como os dados são coletados e utilizados pelos modelos (respeitando o limite da propriedade intelectual), bem como quais medidas de mitigação de risco foram implementadas na tecnologia. Neste sentido, é recomendável que os sistemas de IA sejam apresentados como tal, para que os titulares saibam que não se trata de uma pessoa tomando aquela decisão e realizando aquela interação. A companhia também deve prever os passos a serem adotados em caso de incidente envolvendo a IA, para avaliar a necessidade de notificar autoridades e titulares de dados, assegurando a transparência.
Monitoramento
Depois de lançada a tecnologia ou implementada no fluxo de trabalho das companhias usuárias e desenvolvedoras da tecnologia, é importante manter monitoramento de seu funcionamento e impacto. Desenvolver um plano sobre este monitoramento organiza o trabalho interno e permite uma atuação preventiva, que antecipe eventuais danos.
Conclusão
Os riscos de segurança e privacidade da inteligência artificial são preocupações da sociedade, endereçadas pela agenda regulatória dos países. Prova disso é a Declaração de Bletchley, assinada em novembro de 2023 por 28 países, incluindo EUA, China e Reino Unido. O documento tem como objetivo identificar riscos e preocupações comuns entre os signatários a respeito da segurança da IA.
Além deste documento, o caminhar legislativo da AI Act no parlamento europeu também demonstra este esforço global para definição de regras no desenvolvimento e aplicação da tecnologia. No Brasil, o debate também está em andamento. No Congresso, há diversos projetos sobre o tema (como, por exemplo, o PL 759 de 2023 ou o PL 2338, do mesmo ano) e, recentemente, o presidente da Autoridade Nacional de Proteção de Dados Pessoais (ANPD) se posicionou no sentido de que a IA deveria ser parte do escopo regulatório da Autoridade.
Isso porque, em relação à privacidade, os desafios impostos pela IA são fundamentais, já que a lógica da tecnologia parece esbarrar em princípios das leis de proteção de dados pessoais, como finalidade, segurança, não discriminação, necessidade etc. Algumas autoridades de proteção de dados da União Europeia, neste sentido, possuem guias e regulamentações nacionais sobre como sistemas de IA que tratam dados pessoais podem estar adequados à legislação.
Estas boas práticas, que vêm se consolidando no mercado, auxiliam as companhias desenvolvedoras ou usuárias de algoritmos de IA a acomodar suas responsabilidades legais e o avanço tecnológico. Estabelecer uma governança adequada é fundamental não só para evitar que o avanço tecnológico seja predatório ou danoso a grupos vulneráveis, como para impulsionar relações mais justas.