Os The Facebook Files levantaram o véu sobre o impacto das redes sociais na saúde mental, lançando uma febre contenciosa contra os gigantes do setor. Como responderá o direito português à responsabilidade algorítmica?

 

Era Digital e o pecado original: responsabilidade algorítmica

Há quase 20 anos, a chegada do 3G ditou o início do fim da “inocência” da Era Digital.

Com a globalização do acesso às tecnologias e uma internet rápida e económica, redes sociais e plataformas online “na palma da mão”, os riscos sobre a pessoa e património do utilizador não cessam de crescer, manchando definitivamente a “pureza” original do algoritmo na Era Digital: danos causados por decisões “tomadas” por inteligência artificial (“IA”) na circulação de veículos autónomos, na prestação de cuidados médicos, na concessão de crédito, danos causados aos titulares de direitos de propriedade intelectual pela partilha de conteúdos protegidos por prestadores de serviços em linha, danos causados pela utilização de programas de computador alheios protegidos, etc.

Todos estes casos de “responsabilidade algorítmica” partilham dificuldades teórico-práticas em conceber a responsabilização dos hipotéticos lesantes, mas um outro caso tem efervescido os debates judiciais.

“Addiction by Design”: o dano pessoal por adição às redes sociais

O que é?

Entende-se hoje que os algoritmos de redes sociais como o Instagram, o YouTube ou o TikTok estão concebidos de modo a “dominarem” a vontade do utilizador, forçando-o ao seu consumo aditivo. Esta força compulsória expressa-se, nomeadamente, no modo como os feeds são apresentados e no estímulo que as notificações representam sobre o FOMO (“fear of missing out”), num panorama social em que a presença online se assume como condição sine qua non da cidadania digital.

Nas academias, analisa-se o fenómeno algorítmico de “addiction by design” e validam-se modelos psicométricos de diagnóstico da adição às redes sociais, que se traduz comummente num quadro de ansiedade, défice de atenção, distúrbios alimentares e do sono e depressão. Os dados estatísticos impressionam: um estudo recente elaborado pela Dove, com o apoio da Mental Health Europe, concluiu que 86% dos jovens portugueses admitem estar viciados nas redes sociais, reconhecendo a existência de sofrimento e ansiedade quando afastados destas.

Como surgiu e quais os riscos?

Em setembro de 2021, o The Wall Street Journal divulgou estudos internos do Facebook (atual Meta) documentando os malefícios da utilização das suas redes sociais na saúde mental dos utilizadores (“The Facebook Files”). A reação dos utilizadores não se fez esperar: os tribunais norte-americanos foram inundados por ações populares (“class actions”) instauradas contra os gigantes do setor, peticionando indemnizações astronómicas por lesões pessoais contra os utilizadores, estimando-se que no final de 2023 mais de 350 ações estejam pendentes.

Não se conhece ainda qualquer decisão no âmbito destes processos e os reais impactos sociais e económicos são neste momento imprevisíveis, mas, se considerarmos o eco mediático que as ações têm recebido, a proximidade do escândalo Cambridge Analytica e recentes decisões favoráveis aos lesados em ordenamentos como o Reino Unido, é seguro afirmar que os gigantes do setor enfrentam riscos muito significativos. Estes, resumem-se à constatação de que um hipotético:

(i)             Enquadramento do facto – a programação algorítmica – numa forma de ilicitude,

(ii)           Confirmação da relevância jurídica do dano pessoal na forma de adição à utilização de redes sociais,

(iii)         Demonstração de “culpa corporativa” na programação algorítmica,

(iv)         Construção e delimitação temporal do nexo de causalidade entre o facto e o dano, e

(v)           Definição de um método de cálculo da indemnização,

equivaleria a afirmar, definitivamente, a ilegalidade de um algoritmo utilizado pela rede social em todo o mundo. Para além do evidente risco reputacional, qualquer decisão deste tipo favorável aos lesados terá um previsível efeito spill-over para outros ordenamentos jurídicos.

 O que diriam os tribunais portugueses?

Prever uma decisão judicial desta complexidade e com estes impactos económico-sociais será sempre um difícil exercício de futurologia. Contudo, parece inegável que a compensação deste tipo de danos, em Portugal (que teria, à partida, competência judicial e aplicaria a lei portuguesa), enfrenta alguns pontos de interrogação:

(i)             Dúbia natureza da responsabilidade civil à Estaremos perante uma hipótese de culpa in contrahendo, por omissão de deveres especiais em momento prévio à aceitação dos termos de utilização da rede social? Será uma hipótese de responsabilidade contratual, por incumprimento de deveres assumidos nos termos de utilização da rede social? Ou será uma hipótese de responsabilidade extracontratual, por exemplo, por violação de direitos absolutos? Incertezas deste tipo revelam a insegurança jurídica da proteção legal deste dano.

(ii)           Liberdade vs. responsabilidade à Por regra, os danos são suportados integralmente pelo titular dos bens lesados (casum sentit dominus), assumindo-se a responsabilização de terceiros como uma solução excecional. A pessoa é livre de utilizar, ou não, em maior ou menor medida, as redes sociais e é responsável, se maior ou capaz, pelos seus atos. Se a larguíssima maioria dos utilizadores não apresenta lesões psíquicas associadas à utilização, poderá parecer excessivo responsabilizar os criadores algorítmicos por efeitos pontuais.

(iii)         Quantum” indemnizatório à O dano moral, por inquantificável que seja para efeitos compensatórios, costuma iniciar-se num dado momento no tempo, que corresponderá à verificação do dano (e.g., acidente de trabalho). Mas quando é que se iniciou a adição à utilização de redes sociais? Como diferenciar a indemnização do dano-ansiedade, do dano-défice de atenção, do dano-depressão? A síntese entre o critério clínico e o critério jurídico nestes casos ainda está por definir.

(iv)         Responsabilidade da IA à A inflexão da proposta de responsabilidade objetiva dos sistemas de IA de “alto risco” (onde, desde logo, não se enquadrariam os algoritmos das redes sociais) constante da Proposta de Regulamento em Anexo à Resolução do Parlamento Europeu, de 20 de outubro de 2020, para uma presunção de causalidade constante da Proposta de Diretiva do Parlamento Europeu e do Conselho, de 28 de setembro de 2022, parece ser sintomática de um desfavor ao relevo, por ora, à responsabilidade algorítmica.

Em suma…

A adição à utilização de redes sociais pode ser um dado científico, mas a sua transposição para o direito nacional na qualidade de dano pessoal é extremamente complexa. Para já, os holofotes continuam do outro lado do Atlântico, mas as ondas de choque rapidamente abalarão o direito da responsabilidade português e todos os players têm de estar preparados.

A VdA tem um foco especial em todos os temas tecnológicos, tendo lançado uma plataforma – VdA Tech Hub – que pretende ajudar todas as entidades, dos vários setores de atividade, a navegar os desafios digitais. Espelho de uma nova forma de prestar serviços jurídicos, a VdA proporciona aos nossos clientes, através do VdA Tech Hub, o aconselhamento e a assessoria de que necessitam para dar resposta aos desafios da transição digital.

 #Tech_Hub | Tech Hub by VdA - A Global Digital Impact