Direito Digital

著者: Ana Frazão e Caitlin Mulholland
  • サマリー

  • Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.
    Ana Frazão e Caitlin Mulholland
    続きを読む 一部表示
activate_samplebutton_t1
エピソード
  • EP#39: A Inteligência Artificial tem o dever legal de dizer a verdade?
    2024/09/25
    Apresentação: Ana Frazão / Caitlin Mulholland Produção: José Jance Marques O que é a “verdade”? Essa pergunta simples e profunda move os filósofos desde a Grécia antiga e ainda gera inquietações nos dias de hoje, especialmente em um ambiente dominado por categorias como pós-verdade, narrativas e desinformação potencializado por algoritmos e inteligências artificiais generativas. Inclusive o historiador e filósofo Yuval Harari publicou agora em setembro de 2024 uma nova obra, intitulada “Nexus: Uma breve história das redes de informação, da Idade da Pedra à inteligência artificial” (editora Companhia das Letras), na qual discute as implicações do acúmulo de dados e a busca da verdade. Harari argumenta que a informação nem sempre está vinculada à realidade ou à verdade, podendo, ao contrário, criar novas realidades ao conectar diferentes pontos de uma rede social, política ou cultural. No contexto da IA, Harari alerta que, embora as redes de informação (como os modelos de IA) possam processar volumes massivos de dados, elas não garantem uma representação precisa da realidade. Pelo contrário, as IAs podem facilmente propagar informações errôneas ou ilusórias, perpetuando crenças enganosas ou fortalecendo ideologias perigosas. A visão de Harari enfatiza a importância de não confiar cegamente na IA para descobrir a verdade, uma vez que a mera quantidade de dados processados não é suficiente para garantir sabedoria ou decisões corretas, e a informação pode ser utilizada tanto para conectar quanto para manipular. Nessa mesma linha entra o debate sobre o "discurso descuidado" em modelos de linguagem grande, ou LLMs, como são mais conhecidos. Quando falamos de LLMs, estamos nos referindo a modelos como o ChatGPT, BERT ou GPT-4, que são ferramentas poderosas de IA que geram textos a partir de vastos volumes de dados. Esses modelos, usados em assistentes virtuais, plataformas de busca, e em muitas outras aplicações, são alimentados por uma quantidade imensa de dados retirados da internet, de livros, artigos e até mídias sociais. Mas, apesar da sofisticação dessas IAs, elas frequentemente cometem erros, como fornecer informações imprecisas, incompletas ou até mesmo completamente inventadas. Esses erros são conhecidos como "alucinações" da IA. Isso nos leva a uma pergunta essencial "é possível falar em dever de falar a verdade pela IA? E se não houver, quais as implicações disso? Sabe-se que o "discurso descuidado" refere-se às saídas que esses modelos geram que parecem autoritativas, factuais, mas que, na verdade, contêm erros ou omissões significativas. Pode ser uma informação falsa, uma omissão crítica de contexto, ou até a ausência de uma indicação clara de incerteza. Um exemplo clássico seria o modelo afirmar um fato com muita confiança, quando na verdade esse fato está sujeito a debate ou é baseado em dados limitados. Para entendermos melhor, é importante lembrar que esses modelos não "entendem" a verdade. Eles funcionam por meio de predições estatísticas: dados são alimentados no modelo, que então "prevê" a sequência de palavras mais provável com base em tudo o que foi treinado. Isso significa que, ao responder perguntas factuais, o modelo se baseia na frequência com que certas informações aparecem no seu conjunto de dados. Portanto, se um fato for comum ou repetido muitas vezes nos dados, é mais provável que o modelo o gere corretamente. Mas quando a questão é mais complexa, ambígua ou sensível ao tempo, como eventos históricos com várias interpretações ou questões filosóficas, a IA pode falhar e produzir um discurso problemático. Um exemplo prático seria uma pergunta sobre filosofia, onde o LLM pode citar apenas teorias ocidentais, ignorando por completo outras tradições de pensamento, como a filosofia oriental ou africana. Isso é um exemplo claro do viés de fonte, onde o modelo favorece uma perspectiva, negligenciando outras. Outro exemplo é a apresentação de informações sem referência, onde o LLM faz uma afirmação factual sem citar uma fonte confiável, ou pior, cita fontes inventadas. Então deveríamos obrigar legalmente que os desenvolvedores de IA garantam que seus modelos digam a verdade? Em um mundo onde a IA está se tornando cada vez mais integrada em serviços essenciais, desde a saúde até o governo, essa é uma questão urgente. Há especialistas e teóricos da ética que acreditam que sim, deveríamos criar um dever legal para os provedores de IA. Essa ideia visa responsabilizar os desenvolvedores pela precisão das saídas que suas IAs produzem. Afinal, ao permitir que um chatbot de IA ofereça informações errôneas ou enganosas, corremos o risco de danificar a confiança pública em setores vitais, como a ciência, a educação e as decisões políticas. Como definir "verdade" de forma universal e aplicável a todos os cenários? Essas e outras ...
    続きを読む 一部表示
    1 時間 3 分
  • EP#38: Identidade digital e Inteligência Artificial
    2024/08/30

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques


    A proposta de Novo Código Civil que está sendo debatida no Senado Federal busca atualizar a legislação brasileira para melhor refletir as complexidades da era digital. O objetivo é modernizar o código vigente, que foi promulgado em 2002, para incluir disposições específicas sobre direitos da personalidade, propriedade intelectual e a proteção de dados pessoais no contexto digital.


    Entre as inovações propostas estão regras mais claras sobre a utilização de dados pessoais, o consentimento informado para o uso de atributos da personalidade por sistemas de inteligência artificial, e medidas para combater o roubo de identidade digital. A proposta também pretende harmonizar a legislação brasileira com normas internacionais, como o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, visando a aumentar a segurança jurídica e a confiança no ambiente digital.


    No entanto, o capítulo sobre Direito Digital da proposta tem gerado polêmicas e debates acalorados entre especialistas, legisladores e a sociedade civil. Críticos apontam que algumas das medidas propostas podem ser insuficientes para lidar com as rápidas inovações tecnológicas e as novas formas de violação de direitos no ambiente digital. Há também preocupações sobre a efetividade da aplicação dessas normas, considerando os desafios da fiscalização e da implementação prática.


    Além disso, a questão da proteção de dados pessoais e a definição dos limites para o uso de inteligência artificial sem comprometer os direitos da personalidade são pontos particularmente controversos. Alguns defendem a necessidade de um maior equilíbrio entre inovação tecnológica e proteção de direitos, enquanto outros argumentam que as restrições propostas podem sufocar o desenvolvimento e a competitividade no setor digital brasileiro.


    A inteligência artificial tem impactado a propriedade intelectual, especialmente com as deep fakes. Essas tecnologias avançadas têm tornado cada vez mais difícil discernir o que é real do que não é, levantando preocupações sérias sobre a proteção da identidade e dos direitos da personalidade.


    Um caso emblemático que ilustra bem essas preocupações envolveu a atriz Scarlett Johansson, que descobriu que o ChatGPT estava utilizando uma voz muito similar à sua, mesmo após ter recusado uma oferta para emprestar sua voz ao sistema. A situação gerou um intenso debate sobre roubo de identidade e os limites da utilização de atributos da personalidade por sistemas de IA.


    Essa discussão nos leva a refletir sobre a necessidade de transparência e regulamentação. A própria Scarlett Johansson destacou a importância de termos clareza absoluta sobre a proteção de nossas semelhanças, trabalhos e identidades, um tema que merece atenção legislativa.


    Não podemos esquecer das implicações éticas e legais de projetos como "The Next Rembrandt", que busca trazer de volta à vida o estilo de um dos maiores pintores da história através da tecnologia. Isso levanta a questão: podemos usar características pessoais de alguém, famoso ou não, de forma indiscriminada e sem autorização? Isso se agrava quando pensamos que as IA generativas precisam ser treinadas com grandes quantidades de dados, o que já resultou em processos como o do The New York Times contra a OpenAI, alegando uso indevido de conteúdos protegidos por direitos autorais.


    Em que pese, no caso brasileiro, a arquitetura protetiva dos direitos da personalidade já assegurar aos titulares os mecanismos para prevenir e reprimir esse tipo de prática, é importante assegurar não haver retrocessos no texto discutido no Congresso. Vamos juntos debater esse tema, considerando a realidade brasileira e os exemplos que já vimos lá fora.


    続きを読む 一部表示
    1 時間
  • EP#37: Por que foi importante a ANPD suspender o treinamento de IA da Meta?
    2024/07/31

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques

    A Autoridade Nacional de Proteção de Dados (ANPD) determinou que a Meta, responsável pelo Facebook, Instagram e WhatsApp, suspenda a validade da nova política de privacidade no Brasil. Esta política permitia o uso de dados pessoais de publicações abertas de usuários, como fotos e textos, para treinar sistemas de inteligência artificial (IA) generativa, sem oferecer contrapartidas ou informações detalhadas sobre o uso desses dados. A prática foi criticada na Europa e no Brasil pelo Instituto de Defesa de Consumidores (Idec).

    Conforme o Despacho Decisório nº 20/2024, a ANPD identificou várias violações potenciais à Lei Geral de Proteção de Dados (LGPD), incluindo a ausência de hipótese legal apropriada, pois a Meta utilizava a base legal de "interesse legítimo" para o tratamento de dados pessoais sensíveis, o que é inadequado conforme a LGPD.

    Além disso, houve falta de transparência, já que a divulgação das novas políticas de privacidade não fornecia informações claras e precisas aos usuários sobre como seus dados seriam utilizados. A limitação ao exercício de direitos também foi destacada, uma vez que a opção de opt-out não era facilmente acessível, dificultando o direito de oposição dos usuários. Outro ponto crucial foi o tratamento de dados de crianças e adolescentes, para o qual a Meta não adotou salvaguardas adequadas.

    A Meta foi notificada para suspender a nova política e o tratamento de dados pessoais para IA generativa, sob pena de multa diária de R$ 50.000,00. Segundo especialistas, é importante discutirmos como a suspensão da política de privacidade afeta os direitos dos usuários e a importância da transparência e do consentimento informado. Além disso, precisamos analisar a adequação do uso de "interesse legítimo" como base legal para tratamento de dados sensíveis e comparar essas práticas com outras regiões, como a União Europeia.

    Os riscos associados ao uso de dados pessoais para treinar sistemas de IA são um ponto crítico, incluindo exemplos de possíveis abusos e violações de privacidade. A proteção de dados de crianças e adolescentes apresenta desafios específicos que devem ser considerados, e medidas necessárias para garantir o melhor interesse dessas crianças e adolescentes devem ser discutidas.

    Embora a Meta alegue que a suspensão de sua nova política de privacidade representa um retrocesso para a inovação e competitividade no desenvolvimento de inteligência artificial, é essencial considerar que a proteção dos direitos fundamentais dos titulares de dados não pode ser comprometida em nome do progresso tecnológico. A utilização de dados pessoais sem o devido consentimento e transparência não só viola a LGPD, como também pode gerar consequências irreparáveis para a privacidade e a segurança dos indivíduos.

    A inovação responsável deve ser pautada pelo respeito aos direitos dos usuários, garantindo que a evolução tecnológica ocorra de maneira ética e legal, assegurando a confiança do público e a sustentabilidade das práticas empresariais a longo prazo.

    Esses são os principais aspectos que vamos debater no episódio de hoje.


    続きを読む 一部表示
    1 時間 3 分

あらすじ・解説

Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.
Ana Frazão e Caitlin Mulholland

Direito Digitalに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。