Direito Digital Titelbild

Direito Digital

Direito Digital

Von: Ana Frazão e Caitlin Mulholland
Jetzt kostenlos hören, ohne Abo

Über diesen Titel

Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.Ana Frazão e Caitlin Mulholland
  • EP#48: Narrativas intransigentes na regulação de IA
    Aug 6 2025

    A instalação da Comissão Especial na Câmara dos Deputados para analisar o Projeto de Lei 2338/2023 — que estabelece princípios, direitos e deveres para o desenvolvimento e uso responsável da inteligência artificial no Brasil — reaqueceu uma série de narrativas intransigentes que têm marcado os debates públicos e políticos sobre regulação tecnológica. Esses discursos, em muitos casos, desvirtuam o conteúdo do projeto e dificultam a construção de consensos mínimos sobre a urgência de um marco legal claro e democrático para a IA no país.


    É possível identificar, com base nas audiências públicas, em comunicados de entidades do setor e nas redes sociais de parlamentares e influenciadores, três grandes grupos narrativos que têm dominado os espaços de disputa: (1) narrativas econômico-liberais contra regulação, (2) narrativas ideológicas associando regulação à censura, e (3) narrativas que minimizam os riscos relacionados à proteção de dados.


    A primeira e uma das narrativas mais difundidas parte de setores empresariais e de representantes do setor tecnológico que afirmam, de forma categórica, que qualquer tentativa de regular a IA neste momento comprometerá a inovação e o desenvolvimento do país. Essa tese se expressa em formulações recorrentes como: “O PL 2338 impõe encargos que podem barrar a inovação.”; “A governança proposta é excessiva.”; “A intervenção da ANPD poderá afastar investimentos e sufocar startups.”; “O mercado se autorregula melhor.”


    A crítica mais estruturada a essa narrativa tem vindo de economistas, juristas e especialistas em direitos digitais, que lembram que setores como saúde, aviação e finanças são altamente regulados e, ainda assim, inovadores. Como ironizou o instituto Data Privacy Brasil, essas justificativas formam uma “ladainha típica de lobistas anti-regulação”, baseada em mitos não sustentados empiricamente.

    Outro conjunto de narrativas que tem contaminado o debate gira em torno da suposta intenção do projeto de censurar vozes conservadoras e de institucionalizar um “controle ideológico” das tecnologias. Essa linha discursiva, amplamente disseminada por influenciadores da extrema-direita e por parlamentares de oposição, costuma associar o PL 2338 a um projeto mais amplo de “censura digital”, ainda que o texto do projeto não trate de moderação de conteúdo nem regule redes sociais.


    Um terceiro eixo narrativo opera por meio da relativização dos riscos associados à coleta e ao uso massivo de dados pessoais para treinar sistemas de IA. Ainda que não seja amplamente vocalizada em discursos oficiais, essa narrativa circula com frequência em bastidores parlamentares e ambientes técnicos pouco sensíveis à agenda de proteção de dados. A ideia subjacente é simples, mas perigosa: “Se os dados já estão na internet, por que se preocupar em regulá-los?” Essa postura minimiza os efeitos negativos do uso não consentido de dados pessoais — inclusive sensíveis —, e desconsidera os riscos reais de discriminação algorítmica, vazamentos, manipulação comportamental e vigilância em massa.


    A crítica legítima a pontos específicos do projeto é não apenas bem-vinda como necessária — é assim que se melhora uma proposta legislativa. No episódio de hoje vamos discutir como a proliferação de narrativas intransigentes e desinformativas impede o amadurecimento do debate público e desvia o foco do que realmente importa: construir uma regulação democrática, baseada em evidências, que posicione o Brasil como um protagonista global na adoção responsável da inteligência artificial. Vem com a gente!


    Mehr anzeigen Weniger anzeigen
    1 Std. und 1 Min.
  • EP#47: O julgamento do STF do art. 19 do MCI
    Jul 2 2025

    Por trás do artigo 19 do Marco Civil da Internet — aquele mesmo, celebrado em 2014 como guardião da liberdade de expressão no Brasil digital — esconde-se um debate explosivo, que há anos ferve, mas que agora atingiu o ponto de ebulição. Quando nasceu, ele parecia simples: se alguém se sentisse lesado por algo publicado nas redes, só com ordem judicial a plataforma deveria remover o conteúdo. A promessa era proteger o espaço do debate público, evitar censura privada, impedir que gigantes da tecnologia se tornassem juízes do que deve ou não circular.

    Mas a realidade, sempre mais complexa do que os melhores projetos de lei, mudou o jogo. As redes sociais explodiram, algoritmos tomaram conta das conversas e, com eles, cresceram também comunidades tóxicas, ataques coordenados, perfis falsos e uma enxurrada de desinformação. O cenário ficou especialmente tenso após episódios como os de 8 de janeiro de 2023, quando a democracia balançou e o país inteiro se perguntou: quem, afinal, deve responder por tanto caos digital?


    O julgamento do artigo 19 não foi um simples duelo jurídico. Foi, na verdade, a tradução das ansiedades, esperanças e medos de um país diante do colapso das fronteiras entre liberdade e responsabilidade. De um lado, a maioria dos ministros apontou que, diante dos riscos atuais, não dava mais para esperar o Legislativo. Eles defenderam um regime mais dinâmico, capaz de dar resposta rápida a violações graves, como ameaças à democracia e ataques aos direitos fundamentais. O modelo híbrido que emergiu da decisão mistura o rigor do Judiciário com a velocidade das notificações extrajudiciais: agora, em casos graves, a plataforma pode ser responsabilizada se, notificada, não agir — tudo isso sem depender de ordem judicial, salvo quando se trata de crimes contra a honra.

    Houve resistência. Três ministros insistiram que qualquer mudança estrutural deveria partir do Congresso. Argumentaram que mexer na regra do jogo sem lei específica abre caminho para ativismo judicial e riscos de censura, transferindo demais poder para as empresas. No meio do caminho, uma terceira via: preservar a exigência judicial para crimes de honra, mas impor às plataformas obrigações claras e imediatas diante de ilícitos graves — sobretudo após notificação formal.

    O resultado? Um novo regime, provisório mas robusto, que redefine o papel das plataformas, coloca o Legislativo contra a parede e empurra as empresas para uma corrida por transparência e eficiência. Agora, para e-mails, grupos privados ou crimes de honra, a velha lógica judicial se mantém. Mas para o restante, especialmente quando há nudez não consentida, conteúdo envolvendo crianças ou ações que atentem contra a democracia, a régua subiu: as plataformas precisam ser proativas, sob pena de responder por omissão.


    No plano político, a decisão foi qualquer coisa, menos neutra. Para muitos, o STF agiu para suprir uma omissão inaceitável do Congresso, defendendo direitos fundamentais num momento de crise institucional. Para outros, foi ativismo puro, ameaça à separação dos poderes e, claro, um risco à liberdade de expressão. O recado ficou claro: se o Congresso não reagir, o Judiciário está disposto a assumir o protagonismo da regulação digital, ao menos por ora.


    O sistema criado é provisório, experimental, e traz consigo insegurança jurídica. Sem uma legislação clara, cada caso será uma prova de fogo, exigindo vigilância constante da sociedade civil, da academia e de organizações de defesa dos direitos digitais.

    O que está em jogo, afinal, é o futuro da democracia digital no Brasil? O STF encerra um ciclo e inaugura outro, mais incerto e repleto de desafios? O que virá depois? É sobre isso que falaremos no episódio de hoje. Vem com a gente.


    Mehr anzeigen Weniger anzeigen
    1 Std. und 7 Min.
  • EP#46: Dados Sintéticos
    Jun 4 2025

    Vivemos uma era movida por dados. Das decisões empresariais às políticas públicas, da publicidade personalizada aos diagnósticos médicos, passando por mecanismos de reconhecimento facial, análise preditiva e sistemas de recomendação, os dados estão em tudo. Mas e quando esses dados não estão disponíveis? Quando são incompletos, enviesados ou simplesmente impossíveis de acessar por barreiras legais, éticas ou estruturais? Nesse cenário, os dados sintéticos ganham cada vez mais espaço como solução — ou, para alguns, como um novo problema. Mas afinal, o que são dados sintéticos?

    Ao contrário do que o nome pode sugerir, dados sintéticos não são “dados falsos” no sentido vulgar da palavra. Eles são gerados artificialmente por meio de algoritmos que imitam as propriedades estatísticas dos dados reais. A ideia é que eles reproduzam padrões, correlações e comportamentos esperados, sem revelar ou expor informações verdadeiras de indivíduos ou organizações.

    Na prática, os dados sintéticos são criados a partir de dois métodos principais: a perturbação de dados reais com ruído (técnica que protege a identidade e confunde tentativas de reidentificação) e a geração completamente autônoma de novos dados por meio de modelos generativos, como os GANs (Redes Generativas Adversariais) — a mesma tecnologia por trás de deepfakes e imagens hiper-realistas geradas por IA.

    Esse avanço resolve um problema antigo: a escassez crônica de dados confiáveis. Como destacou o professor Marcelo Finger, da Universidade de São Paulo (USP), em entrevista recente, até mesmo grandes laboratórios como a OpenAI enfrentam limitações nesse aspecto. “Vivemos com a falta crônica de dados, mesmo com a OpenAI”, afirmou. Em muitos setores, como a saúde, finanças ou direito, o acesso a dados reais é cercado de sigilo, alto custo e complexidade regulatória. A alternativa? Criar dados que sejam fiéis à realidade, mas que não representem ninguém em específico.

    A adoção dessa tecnologia vem crescendo. De acordo com relatório da Gartner, até 2030, 60% dos dados utilizados para treinar modelos de IA serão sintéticos. E isso não é ficção científica — já hoje, empresas como a Nvidia, Google, Meta e startups especializadas como Synthetaic e Mostly AI investem pesadamente nessa frente. Na indústria automotiva, por exemplo, dados sintéticos são usados para simular bilhões de quilômetros rodados por veículos autônomos sem precisar sair do laboratório. Na área da saúde, permitem criar bancos de dados de pacientes fictícios que ajudam a treinar algoritmos diagnósticos sem ferir o sigilo médico.

    Há uma preocupação adicional quando esses dados alimentam sistemas com alta autonomia decisória, como sistemas judiciais automatizados, inteligência artificial em decisões administrativas ou análise de risco bancário. Nesses contextos, a ilusão de objetividade dos dados sintéticos pode ser ainda mais perigosa que o viés explícito de dados reais, justamente porque escapa à percepção crítica dos operadores.

    Outro ponto sensível é o direito à transparência. Se a IA toma decisões com base em dados que não são auditáveis, porque são sintéticos, como será possível realizar controle social, revisões judiciais ou perícias técnicas? Isso toca diretamente o coração do direito digital: o equilíbrio entre inovação e responsabilidade, entre o possível e o aceitável

    Nas universidades, o uso de dados sintéticos também se expande. Na PUC-Rio, por exemplo, pesquisadores têm estudado formas de aplicar essa tecnologia em estudos de políticas públicas, enquanto na UFRJ e na FGV surgem debates sobre os limites jurídicos e éticos da manipulação de dados no contexto da inteligência artificial.


    Neste episódio vamos aprofundar esses debates. Vamos entender como os dados sintéticos estão sendo utilizados, quais as promessas e os perigos que trazem, e de que forma o Direito pode — e deve — responder a essa nova fronteira da realidade artificial. Vem com a gente!


    Mehr anzeigen Weniger anzeigen
    53 Min.
Noch keine Rezensionen vorhanden