allfeeds.ai

 

Segurança Legal  

Segurança Legal

O podcast da BrownPipe Consultoria
Be a guest on this podcast

Language: pt-br

Genres: News, Tech News

Contact email: Get it

Feed URL: Get it

iTunes ID: Get it


Get all podcast data

Listen Now...

#411 – Crianças na Internet, IA, vigilância e proteção de dados
Tuesday, 24 February, 2026

Neste episódio falamos sobre os principais temas de segurança digital e privacidade das últimas semanas, abordando assuntos que você precisa conhecer para entender o cenário atual da proteção de dados, segurança infantil online e inteligência artificial. Você vai descobrir como o Roblox e o Discord lidam com a verificação de idade e proteção de crianças na internet, incluindo os riscos de predadores digitais, mecanismos psicológicos de retenção e a ausência de controles parentais eficazes. Também abordamos o polêmico caso do Grok no X (antigo Twitter) gerando imagens de nudez de mulheres e menores de idade sem guardrails, e as medidas tomadas pela ANPD, Ministério Público Federal e Senacon contra a plataforma. Discutimos o acordo de adequação mútua entre Brasil e União Europeia em proteção de dados pessoais e o que isso representa para transferências internacionais de dados e oportunidades comerciais. Ainda comentamos a solicitação do FBI à Microsoft pelas chaves de criptografia BitLocker, a ação judicial contra a Meta por suposto acesso às mensagens criptografadas do WhatsApp, o fenômeno das personas digitais criadas por IA, como a “Aboriginal Steve Irwin”, e os deepfakes com celebridades. Por fim, apresentamos a WhisperSafe, novo patrocinador do podcast, um software de transcrição local com privacidade em foco, usando modelos Whisper da OpenAI sem envio de dados para a nuvem. Assine o podcast para não perder nenhum episódio, deixe sua avaliação nas plataformas e siga o Segurança Legal no Instagram, Mastodon, Blue Sky, YouTube e TikTok. Apoie o projeto independente em apoia.se/segurancalegal. Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana. Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura. ShowNotes Grupo 1 – Roblox, crianças e proteção digital em plataformas de jogos ‘Estou sendo atacado por crianças’, diz Felca após ser alvo de protesto no Roblox Opinião: feito para viciar, Roblox tem lógica de cassino e vira caça-níquel para crianças Palcos no Discord serão bloqueados para adolescentes e restritos para grupos da mesma idade Hackers expose age-verification software powering surveillance web ‘O que adolescentes fizeram com cão Orelha acontece todas as noites em muitas casas do Brasil, ao vivo no Discord’, alerta juíza Vanessa Cavalieri Internal chats show how social media companies discussed teen engagement Como vão funcionar as novas regras do Discord para verificar idade no app? Grupo 2 – Grok, conteúdo sexual gerado por IA e responsabilização do X/Musk ANPD, MPF e Senacon recomendam que X impeça geração e circulação de conteúdos sexualizados indevidos por meio do Grok ANPD, MPF e Senacon determinam que X implemente de forma imediata medidas para corrigir falhas no Grok Masterful gambit: Musk attempts to monetize Grok’s wave of sexual abuse imagery Joint statement on AI-generated imagery and the protection of privacy Grupo 3 – Adequação mútua Brasil-UE em proteção de dados e multas na UE Brasil e União Europeia reconhecem adequação mútua em matéria de proteção de dados pessoais Violation de données : sanction de 5 millions d’euros à l’encontre de FRANCE TRAVAIL Violation de données : sanction de 42 millions d’euros à l’encontre des sociétés FREE MOBILE et FREE Más sanciones y de mayor importe: La AEPD sube el nivel de multas en 2025 Grupo 4 – Vigilância, privacidade e Estado The Department of Homeland Security is demanding that Google turn over information about random critics Microsoft is giving the FBI BitLocker keys US authorities reportedly investigate claims that Meta can read encrypted WhatsApp messages Grupo 5 – IA generativa e identidade ‘It’s AI blackface’: social media account hailed as the Aboriginal Steve Irwin is an AI character created in New Zealan Imagem do Episódio – Children’s Games (Bruegel)  Transcrição do Episódio (00:00:08.000 –> 00:00:17.500) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 411, gravado em 24 de fevereiro de 2026. (00:00:17.500 –> 00:00:22.920) Eu sou Guilherme Goulart e junto com o Vinícius Serafim vamos trazer para vocês algumas notícias das últimas semanas. (00:00:22.920 –> 00:00:24.440) E aí, Vinícius, tudo bem? (00:00:24.440 –> 00:00:27.940) Olá, Guilherme, tudo bem? (00:00:24.440 –> 00:00:27.940) Olá aos nossos ouvintes. (00:00:28.180 –> 00:00:30.600) Você estava com saudade de gravar ou não? (00:00:30.600 –> 00:00:39.160) Cara, eu já estava até duvidando da minha capacidade de gravar de novo, porque a gente passou quase.. (00:00:30.600 –> 00:00:39.160) Vai fechar dois.. (00:00:39.160 –> 00:00:40.820) Um mês e pouco. (00:00:40.820 –> 00:00:45.280) O último foi ali em janeiro, não foi? (00:00:45.280 –> 00:00:46.720) Foi em janeiro que a gente gravou. (00:00:46.720 –> 00:00:51.000) Agora você me pegou, você me pegou no contrapé. (00:00:51.000 –> 00:00:57.820) Mas nós gravamos o episódio 410 da Retrospectiva, que se você não ouviu, está lá no dia 6 de janeiro. (00:00:58.180 –> 00:01:02.100) De 2026. (00:00:58.180 –> 00:01:02.100) Retrospectiva 2025. (00:01:03.780 –> 00:01:07.380) Bem, então, esse é o nosso momento de conversarmos sobre algumas notícias. (00:01:07.380 –> 00:01:10.240) Pegue o seu café e venha conosco para entrar em contato. (00:01:10.240 –> 00:01:18.760) Vocês já sabem, é lá no podcast.roba.segurançalegal.com, no Mastodon, no Instagram, no Blue Sky, no YouTube e no TikTok também. (00:01:18.760 –> 00:01:24.520) Você pode ver que tanto no TikTok quanto no YouTube você consegue ver também uns shorts lá que aparecem no Instagram também. (00:01:24.900 –> 00:01:30.420) A nossa campanha de financiamento coletivo, vocês já sabem, lá no apoia.se barra segurança legal. (00:01:30.420 –> 00:01:36.940) A gente sempre pede que você considere colaborar com esse projeto independente de proteção de conteúdo. (00:01:36.940 –> 00:01:41.960) E, Vinícius, temos uma novidade que é um novo patrocinador aqui no Segurança Legal. (00:01:42.500 –> 00:01:43.520) É isso aí, Guilherme. (00:01:43.520 –> 00:01:54.360) Tem a WhisperSafe, na verdade, o produto da WhisperSafe de uma startup que nós conhecemos, inclusive o dono da startup. (00:01:54.360 –> 00:02:04.360) É um software para transcrição de voz com um valor bastante acessível comparado com outros que tem no mercado. (00:02:05.420 –> 00:02:08.640) Ele faz transcrição tanto.. (00:02:08.640 –> 00:02:13.760) Eu tenho usado muito para fazer, para mandar comandos para IA. (00:02:13.760 –> 00:02:17.060) Eu fazia prompt tudo estruturadinho, digitando e tal. (00:02:17.060 –> 00:02:26.200) Agora, para programar, para criar scripts, criar alguns programas, para fazer alguns testes, eu tenho utilizado essencialmente ele para digitar. (00:02:26.200 –> 00:02:34.080) E tem uma funcionalidade muito interessante, que é a gravação e transcrição de reuniões, que eu também tenho utilizado. (00:02:35.220 –> 00:02:40.820) Independente do software que você utiliza, você abre ele, clica gravar a reunião, ele vai gravar todo o áudio da reunião. (00:02:40.820 –> 00:02:48.280) E depois que ele grava e você aperta lá o botãozinho para transcrever, ele te dá uma.. (00:02:48.280 –> 00:02:53.000) Ele tanto gera um arquivo com a transcrição bruta, se tu quiser usar com alguma IA, (00:02:53.000 –> 00:03:04.160) Como ele já deixa na área de transferência a tua transcrição com um prompt montado para te colar na IA que tu quer utilizar para fazer um resumo da tua reunião. (00:03:04.160 –> 00:03:07.500) Então, termina a reunião, cola na IA e pimba. (00:03:07.500 –> 00:03:16.880) O valor dele é um valor bastante acessível e, para os ouvintes do Segurança Legal, nós temos 20 cupons. (00:03:17.840 –> 00:03:28.700) O cupom é SEGLEG50, ele dá 50% de desconto vitalício, digamos assim. (00:03:28.700 –> 00:03:35.360) Você faz a assinatura, aplica o desconto, se fizer mensal ele vai aplicar a todos os pagamentos mensais (00:03:35.360 –> 00:03:40.080) E, se for anual, ele vai aplicar a todos os pagamentos anuais. (00:03:40.080 –> 00:03:44.540) Então, não é um desconto que vale só no primeiro ano ou só no primeiro pagamento. (00:03:44.540 –> 00:03:48.460) SEGLEG50 para os ouvintes do Segurança Legal. (00:03:49.080 –> 00:03:55.520) São 20 cupons, são 20 cupons que a gente tem aí, pelo menos para este episódio. (00:03:55.520 –> 00:04:01.320) E o mais importante, Vinícius, ele é um aplicativo que é construído com privacidade em foco. (00:04:01.320 –> 00:04:06.820) Ou seja, se você, os dados e toda a parte de transcrição, ela fica só na sua máquina, (00:04:06.820 –> 00:04:11.020) Não vai para a nuvem, a não ser que você queira depois usar isso no MyA e tal, (00:04:11.020 –> 00:04:14.580) Mas, assim, para assuntos mais críticos. (00:04:14.580 –> 00:04:18.560) Se você quiser ter lá para fazer uma ata depois, isso fica só na sua máquina. (00:04:18.560 –> 00:04:24.280) Ele faz, ele usa os modelos da Whisper, isso está lá na interface, está muito claro. (00:04:24.280 –> 00:04:31.040) Ele usa os modelos da, os modelos Whisper da OpenAI, que são modelos que rodam local na máquina. (00:04:31.040 –> 00:04:35.460) E o interessante é que tu não precisa nem ter uma placa de vídeo, não precisa ter GPU nem nada, (00:04:35.460 –> 00:04:39.280) Ele funciona muito bem, eu testei no meu notebook, não tem placa de vídeo dedicada. (00:04:40.700 –> 00:04:45.580) E funcionou muito bem, assim, ele é bastante rápido. (00:04:45.580 –> 00:04:52.320) E eu tenho feito os testes até para ver a questão de velocidade, já que tem os modelos disponíveis lá. (00:04:52.320 –> 00:04:55.000) Eu estava usando sempre o Turbo, assim, vou usar o melhor. (00:04:55.000 –> 00:05:00.500) Aí eu resolvi começar a usar o Medium e o Small lá dos modelos. (00:05:00.500 –> 00:05:04.580) E, cara, o Small, ele dá umas erradas, assim, sabe? (00:05:04.580 –> 00:05:06.260) Mas o Medium funciona muito bem. (00:05:06.260 –> 00:05:08.060) Tá bom. (00:05:08.840 –> 00:05:15.480) Então, basta você acessar o whispersafe.ai.ai, você vai ver lá todos os valores. (00:05:15.480 –> 00:05:19.920) Na hora do pagamento, pode usar o cupom SEGLEG50 e vamos lá. (00:05:19.920 –> 00:05:24.080) Bem-vindos, então, ao novo patrocinador do podcast Segurança Legal. (00:05:24.080 –> 00:05:30.480) Vamos para os temas, então, Vinícius, desses últimos dois meses, dá para se dizer aí. (00:05:30.480 –> 00:05:32.680) Hoje já estamos aí no dia 24 de fevereiro. (00:05:32.680 –> 00:05:44.260) Bastante coisa acontecendo, mas nós vamos, em vez de comentar propriamente as notícias, claro que nós vamos citá-las aqui, mas nós dividimos em alguns grupos. (00:05:44.340 –> 00:05:49.420) De temas que nos chamaram a atenção e que também foram temas importantes aí nas últimas semanas. (00:05:49.420 –> 00:05:53.860) O primeiro deles diz respeito à questão da proteção da criança na internet. (00:05:53.860 –> 00:05:56.400) Proteção digital, sobretudo em plataformas. (00:05:56.400 –> 00:06:00.200) Você que nos acompanha aqui sabe que a questão da proteção de criança é importante. (00:06:00.200 –> 00:06:04.860) A gente tem diversos, para esse podcast, a gente tem diversos episódios gravados sobre isso. (00:06:05.100 –> 00:06:11.420) Chegamos a comentar, inclusive, um episódio mais recente também sobre o ECA Digital, Vinícius, se você puder ver o número aí para nós. (00:06:11.420 –> 00:06:24.280) E, basicamente, o que nós estamos vendo mais recentemente é toda uma questão sobre como tornar essas plataformas, os problemas envolvendo plataformas utilizadas por crianças. (00:06:24.280 –> 00:06:33.320) E cada vez mais as crianças têm usado, seja o discórdio, mas aqui o foco dessas notícias é o Roblox. (00:06:33.320 –> 00:06:38.740) Então, se você tem filho, provavelmente já ouviu falar sobre Roblox, que é um jogo. (00:06:38.740 –> 00:06:44.020) Dá para dizer que é um jogo, mas que simula quase como um ambiente, assim. (00:06:38.740 –> 00:06:44.020) Virtual. (00:06:44.020 –> 00:06:47.600) Eu cheguei a jogar ele logo que ele apareceu. (00:06:47.600 –> 00:06:52.020) Assim, não tão logo, mas os colegas do meu filho começaram a jogar. (00:06:52.020 –> 00:06:54.900) Ai, meu filho veio com essa história do Roblox. (00:06:54.900 –> 00:06:57.140) E aí, disse, não, beleza, vamos ver. (00:06:57.140 –> 00:06:58.860) Aí eu entrei com ele. (00:06:59.320 –> 00:07:02.180) Cara, é um ambiente, é um ambiente virtual. (00:07:02.180 –> 00:07:08.400) Para mim, me lembrou muito aquele Second Life, tá ligado? (00:07:08.400 –> 00:07:09.320) Sim, Second Life. (00:07:09.320 –> 00:07:11.100) Me lembrou muito aquilo, então. (00:07:11.100 –> 00:07:15.880) E aí, dentro, tu tem espaços. (00:07:15.880 –> 00:07:19.980) Que tu acessa aplicações, jogos e tudo mais. (00:07:19.980 –> 00:07:22.560) Tu pode criar, inclusive, e tal. (00:07:22.700 –> 00:07:26.080) E aí, ele tem uma moeda interna no jogo, tá? (00:07:26.080 –> 00:07:28.080) Ele tem grana envolvida. (00:07:28.080 –> 00:07:36.080) E, cara, em cinco minutos de Fussaclo ali, eu larguei para o meu filho, ó, tem jogos melhores (00:07:36.080 –> 00:07:36.640) Para te jogar. (00:07:36.640 –> 00:07:39.060) Tu não vai jogar isso aqui. (00:07:39.060 –> 00:07:44.520) Justamente porque é um ambiente, eu percebi, o que eu percebi de cara, e se confirmou depois, (00:07:44.520 –> 00:07:47.180) Um ambiente muito descontrolado, entende? (00:07:47.680 –> 00:07:56.360) Um ambiente muito descontrolado, com muita, assim, nomes estranhos de personagens, todo (00:07:56.360 –> 00:08:03.060) Mundo pode se comunicar com todo mundo, então, é um negócio bem estranho. (00:08:03.060 –> 00:08:04.880) Pelo menos, era. (00:08:04.880 –> 00:08:06.060) A percepção. (00:08:06.060 –> 00:08:06.260) Não entrei mais para jogar. (00:08:06.260 –> 00:08:11.720) Mas aí, pelo que a gente vê agora nas reações e notícias e tudo mais, pelo visto, (00:08:11.720 –> 00:08:12.580) Continua estranho. (00:08:12.580 –> 00:08:13.620) Continua estranho. (00:08:13.620 –> 00:08:18.880) O, o, a grande questão aqui é que, por fora, e isso está acontecendo no mundo (00:08:18.880 –> 00:08:20.140) Inteiro, não é só no Brasil. (00:08:20.140 –> 00:08:23.820) No Brasil, por conta do ECA Digital, mas assim, começa.. (00:08:23.820 –> 00:08:24.660) Episódio 400, viu, Guilherme? (00:08:24.660 –> 00:08:25.940) Tá, legal. (00:08:25.940 –> 00:08:26.660) Episódio 400, isso é legal. (00:08:26.660 –> 00:08:32.380) É que começa a se ampliar toda a discussão de como você fazer a verificação de idade (00:08:32.380 –> 00:08:34.120) De pessoas nessas plataformas. (00:08:34.120 –> 00:08:41.000) Então, aqui a gente junta nesse mesmo pacote o Roblox e também o Discord. (00:08:41.360 –> 00:08:43.840) E aí, uma coisa muito interessante. (00:08:43.840 –> 00:08:48.460) Que gerou, assim, até um fenômeno social, me parece que relevante. (00:08:48.460 –> 00:08:52.160) Crianças começaram a protestar lá, porque as crianças seriam os beneficiários. (00:08:52.160 –> 00:08:56.820) Mas começaram a protestar por conta das novas medidas de verificação de idade. (00:08:56.820 –> 00:08:59.280) Aí, o Felca foi alvo de protesto e tal. (00:08:59.280 –> 00:09:05.920) E tem as crianças lá, simulando um protesto, segurando cartazes lá dentro do Roblox. (00:09:07.520 –> 00:09:11.380) Saíram também notícias dizendo, e aí, mais ou menos na tua percepção, Vinícius, (00:09:11.380 –> 00:09:16.720) De que o Roblox, como acontece com grandes plataformas, ele teria uma lógica de cassino, (00:09:16.720 –> 00:09:21.860) Ou seja, as crianças ficariam ali, utilizariam gatilhos psicológicos, (00:09:21.860 –> 00:09:26.860) Como já ocorre em redes sociais, para que as crianças ficassem mais tempo lá dentro. (00:09:26.860 –> 00:09:33.160) E aí, também começou a se ventilar de que predadores sexuais estariam dentro do Roblox, (00:09:33.160 –> 00:09:36.760) Se fazendo passar por crianças. (00:09:33.160 –> 00:09:36.760) Disfarçados aí. (00:09:36.760 –> 00:09:40.700) Nos Estados Unidos, isso é um problema bem sério lá, justamente com isso. (00:09:40.700 –> 00:09:52.020) E teve o CEO do Roblox, ele teve lá no episódio do The Hard Fork. (00:09:53.020 –> 00:09:59.060) Eu já vejo o número de episódios aqui, mas o nome do CEO é Dave Bazzucchi, tá? (00:09:59.060 –> 00:10:06.020) E, cara, o pessoal do The Hard Fork tentou, assim, impressionou, foi uma coisa que ficou até tenso, sabe? (00:10:06.020 –> 00:10:08.940) Não é normal, assim, tu ver esse episódio do The Hard Fork desse jeito. (00:10:08.940 –> 00:10:14.100) E o cara sempre saindo pela tangente, assim, e perguntas bem diretas. (00:10:14.460 –> 00:10:21.300) Em termos de controle de comunicação, a questão de deixar adultos falar com crianças, assim, várias coisas. (00:10:21.300 –> 00:10:23.420) E ele sempre dando evasiva. (00:10:23.420 –> 00:10:26.320) Ele não.. (00:10:23.420 –> 00:10:26.320) Assim, foi muito ruim, sabe? (00:10:26.320 –> 00:10:32.020) A impressão que tu tens é que o cara foi ali para tentar se justificar, (00:10:32.020 –> 00:10:35.280) Não aceitando os problemas que ele tem na plataforma. (00:10:35.280 –> 00:10:38.800) Isso o CEO da própria Roblox, sabe? (00:10:38.800 –> 00:10:40.320) Na própria empresa. (00:10:40.320 –> 00:10:50.300) Então, isso me deixou ainda mais convencido de que é uma empresa que não tem preocupação nenhuma (00:10:50.300 –> 00:10:54.240) Com essa questão de segurança de crianças e tudo mais, entende? (00:10:54.240 –> 00:10:55.540) É bem delicado. (00:10:55.540 –> 00:10:58.760) Se o pessoal já se preocupa com o Discord, o Roblox é muito pior. (00:10:58.760 –> 00:11:00.000) É muito pior. (00:11:00.000 –> 00:11:03.140) Em termos de possibilidades de comunicação. (00:11:03.140 –> 00:11:06.380) É uma reportagem aqui da Folha de São Paulo. (00:11:06.420 –> 00:11:10.920) Pelo Daniel Mariani, ele destaca justamente isso. (00:11:10.920 –> 00:11:13.660) Inclusive de monetização. (00:11:13.660 –> 00:11:18.120) Práticas predatórias em games e monetiza compulsão e frustrações. (00:11:18.120 –> 00:11:22.720) Explora mecanismos psicológicos como medo de ficar fora da plataforma. (00:11:22.720 –> 00:11:25.060) Ficar de fora e perda de noção de tempo. (00:11:25.060 –> 00:11:27.540) Então, ele conta uma historinha que ele sai com o filho e o filho diz (00:11:27.540 –> 00:11:31.600) Olha, nós temos que voltar até tal hora porque vai acontecer um evento lá no Roblox (00:11:31.600 –> 00:11:34.920) E eu preciso estar lá e enfim. (00:11:35.800 –> 00:11:42.840) E aí, a crítica toda é também de que haveria uma falta de vontade, digamos assim, (00:11:42.840 –> 00:11:46.920) Da empresa de adotar controles parentais e também a questão da verificação da idade. (00:11:46.920 –> 00:11:52.820) E a verificação da idade que começa agora também a ficar mais presente agora em março. (00:11:52.820 –> 00:11:55.440) Tudo indica que vai acontecer também no Discord. (00:11:55.720 –> 00:11:57.760) Então, isso.. (00:11:57.760 –> 00:12:01.500) E também o Discord, Vinícius, se você quiser falar logo a seguir, (00:12:01.500 –> 00:12:07.160) Mas o Discord também aplicando novas formas de controle parental. (00:12:07.160 –> 00:12:11.440) Mas a grande discussão, e mais uma vez, isso está acontecendo no Brasil e no mundo, é (00:12:11.440 –> 00:12:17.200) Mas qual vai ser ou quais serão as medidas de controle de identidade. (00:12:18.080 –> 00:12:27.420) Então, se fala em biometria facial, se fala em envio de documentos e tal, e aí a grande preocupação que se coloca (00:12:27.420 –> 00:12:33.320) É no aumento das práticas de vigilância sobre como, que as empresas vão lidar com isso, (00:12:33.320 –> 00:12:39.040) Sobre o fato de a biometria facial ser um dado sensível, que poderia ser utilizado para outras sinalidades. (00:12:39.040 –> 00:12:47.020) Uma das notícias aqui mostra que o próprio Discord estava usando uma empresa lá, ou contratou uma empresa de verificação (00:12:47.020 –> 00:12:53.380) Que tinha conexões, que é a tal da persona lá, conexões no site deles, dizia mesmo (00:12:53.380 –> 00:12:55.840) This is a US government system. (00:12:55.840 –> 00:13:01.240) Mas aí que tá, Guilherme, assim, a gente tem um problema bem sério para resolver aí, tá? (00:13:01.240 –> 00:13:08.060) Porque ao mesmo tempo que se quer que as empresas consigam fazer a verificação de idade, (00:13:09.040 –> 00:13:11.160) E aí sim, é ok. (00:13:11.160 –> 00:13:12.660) O que que eu faço essa verificação de idade? (00:13:12.660 –> 00:13:17.000) O que que eu faço de um jeito que eu consiga ter um mínimo de confiança (00:13:17.000 –> 00:13:20.060) De que a criatura não tá mentindo pra mim, que o Zora não tá mentindo pra mim (00:13:20.060 –> 00:13:22.420) E tá entrando com menos de 13 ou coisa parecida? (00:13:22.420 –> 00:13:25.660) Então, eu preciso uma forma de verificar isso. (00:13:25.660 –> 00:13:28.400) Tu vai verificar como? (00:13:28.400 –> 00:13:30.080) Imagina a própria empresa. (00:13:30.080 –> 00:13:34.680) Ela vai usar reconhecimento facial para tentar identificar a idade? (00:13:34.680 –> 00:13:36.440) Ela vai pedir documentação? (00:13:38.360 –> 00:13:40.020) Não sei se isso é bom, se é ruim, entende? (00:13:40.020 –> 00:13:42.000) Eu só tô com o problema. (00:13:42.000 –> 00:13:46.220) Aí, o ideal, eu não gostaria de ficar dando minha identidade pra tudo quanto é empresa. (00:13:46.220 –> 00:13:50.460) Então, uma outra opção o governo tem as informações. (00:13:50.460 –> 00:13:54.360) Uma agência governamental tem as informações, as nossas informações. (00:13:54.360 –> 00:13:55.580) Sabe a idade que a gente tem. (00:13:55.580 –> 00:13:57.540) Tem toda a comprovação de quem a gente é. (00:13:58.220 –> 00:14:07.340) Será que não dá pra ter um protocolo que, de forma anônima, eu acesso um site e esse site (00:14:07.340 –> 00:14:15.160) Conversa com o site do governo e aí eu converso com o site do governo e digo, gera aí um token (00:14:15.160 –> 00:14:21.420) Pra mim, eu sou fulano, gera um token dizendo que eu tenho mais de 18 anos ou tem mais de 13 (00:14:21.420 –> 00:14:22.460) Ou coisa parecida. (00:14:22.460 –> 00:14:27.360) Parecido com o que a gente já faz no Alt pra fazer autenticação quando a gente usa o Google e tudo mais. (00:14:27.360 –> 00:14:31.720) Parecido com isso, mas em vez de dizer quem nós somos, ele diz que idade que a gente tem. (00:14:31.720 –> 00:14:32.860) Tá? (00:14:32.860 –> 00:14:36.000) Só que daí tu tem vários outros problemas. (00:14:36.000 –> 00:14:38.380) Ok, o site pode não saber quem tu é por ali. (00:14:38.380 –> 00:14:39.360) Não tem problema. (00:14:39.360 –> 00:14:41.460) E aí tem outro jeito de saber quem tu mas enfim. (00:14:41.460 –> 00:14:43.180) Até porque você vai ter um cadastro lá. (00:14:43.240 –> 00:14:43.960) Exato. (00:14:43.960 –> 00:14:51.560) Então assim, ok, ao mesmo tempo tu vai estar dizendo pro governo o que que tu tá acessando. (00:14:51.560 –> 00:14:57.260) Então se o governo começar a registrar lá na hora de consultar quem tá consultando o teu cadastro (00:14:57.260 –> 00:15:00.900) Ou pra quem tu tá se autenticando, ele sabe o que que tu tá acessando. (00:15:00.900 –> 00:15:06.060) E aí teve um problema recente, a gente chegou a comentar aqui, eu só não lembro se foi na (00:15:06.060 –> 00:15:10.120) Inglaterra especificamente ou foi na União Europeia, tá? (00:15:10.120 –> 00:15:11.900) E se eu não tô enganado, foi na Inglaterra, cara. (00:15:11.900 –> 00:15:19.940) Mas eles estavam com a demanda de, pra acessar site pornográfico, tu tem que dar a tua (00:15:19.940 –> 00:15:23.300) Identificação real, tá? (00:15:23.300 –> 00:15:28.080) Pra que o site tenha certeza de que tu é o maior de idade. (00:15:28.080 –> 00:15:36.360) E aí começou uma outra discussão da questão da privacidade das pessoas que acessam (00:15:36.360 –> 00:15:37.600) Esses sites e tudo mais. (00:15:38.100 –> 00:15:46.060) Então eu não vejo uma solução perfeita, assim, que empresa privada não guarde as informações (00:15:46.060 –> 00:15:48.760) Ou não tem um repositório de informações pra fazer isso. (00:15:48.760 –> 00:15:52.560) Tem uma solução que já é conhecida que é uma chamada, com a chamada Meu ID. (00:15:52.560 –> 00:15:59.420) Eu uso pra algumas plataformas de jogos, que a ideia é justamente essa, tu se autentica (00:15:59.420 –> 00:16:04.100) Com a plataforma, com a tua documentação, faz prova, faz o esquema da imagem e tudo mais. (00:16:04.100 –> 00:16:06.140) Aí tu usa ela pra se autenticar uma plataforma. (00:16:06.140 –> 00:16:11.660) Então, ou a gente vai ter que ter uma empresa como essa, ou vai ter que vincular com algum (00:16:11.660 –> 00:16:12.500) Órgão do governo. (00:16:12.500 –> 00:16:18.140) Eu não vejo uma saída diferente pro Discord, por exemplo. (00:16:18.140 –> 00:16:21.540) Eu não vejo uma saída diferente pro Facebook. (00:16:22.220 –> 00:16:27.240) Como é que eu vou autenticar, como é que eu vou saber que o usuário tem mais certa idade, (00:16:27.240 –> 00:16:37.040) Sem que eu possa ser enganado e sem pedir uma confirmação mais consistente, documental, (00:16:37.040 –> 00:16:43.280) Nem que seja interfaceada ou intermediada pelo governo ou por uma empresa privada, (00:16:44.460 –> 00:16:49.760) Que diga, não, Vinícius realmente tem mais de 13 anos. (00:16:49.760 –> 00:16:51.620) É um problema não. (00:16:51.620 –> 00:16:53.520) Eu não vejo uma solução fácil pra isso. (00:16:53.520 –> 00:16:55.720) É um problema de privacidade. (00:16:55.720 –> 00:17:01.940) Essa questão que eu comentei aqui desse persona que o Discord tava usando, (00:17:01.940 –> 00:17:05.660) A grande questão era que era um negócio quase como um data broker de verificação (00:17:05.660 –> 00:17:11.980) Que iria ser utilizado para fins de vigilância estatal. (00:17:11.980 –> 00:17:17.900) E aí o Discord, depois que isso vira notícia, eles voltam atrás. (00:17:17.900 –> 00:17:19.940) Eles dizem, nós não vamos mais usar isso. (00:17:19.940 –> 00:17:21.100) Ou seja, assim, tiram. (00:17:21.100 –> 00:17:23.000) O problema é um problema de privacidade. (00:17:23.000 –> 00:17:27.280) Você poderia, eu imagino, Vinícius, que se todo mundo tivesse, (00:17:27.280 –> 00:17:31.960) Levasse proteção de dados a sério, você poderia sim ter um protocolo (00:17:31.960 –> 00:17:36.560) Em que empresas e Estado poderiam fornecer um meio de autenticação (00:17:36.560 –> 00:17:39.540) Privacy-friendly. (00:17:39.540 –> 00:17:43.860) Ou seja, sem a coleta de informações sobre quem acessou o quê. (00:17:43.860 –> 00:17:48.360) Eles, ambos os lados, ou todos os lados, deveriam abrir mão disso. (00:17:48.360 –> 00:17:53.080) Mas nós sabemos que no estado atual de coisas, isso não vai acontecer. (00:17:53.080 –> 00:17:53.800) É o contrário. (00:17:53.800 –> 00:17:57.440) O que essa notícia mostra é que as empresas e governos estão, (00:17:58.560 –> 00:18:02.820) Frequentemente, caminhando para utilizar essa desculpa da verificação (00:18:02.820 –> 00:18:04.760) Para aumentar o monitoramento sobre as pessoas. (00:18:04.760 –> 00:18:06.620) E essa que me parece que é a preocupação. (00:18:06.620 –> 00:18:12.060) Enfim, nós vamos deixar, como sempre, todas as notícias lá no Show Notes. (00:18:12.060 –> 00:18:15.020) Tem outras coisas aqui, se você se interessa por essa questão. (00:18:15.020 –> 00:18:18.660) O papel do Discord em questão de agressão de animais, (00:18:18.660 –> 00:18:21.040) Que teve aí recentemente com o caso do Cão Orelha. (00:18:21.040 –> 00:18:25.860) E também sobre como empresas internamente discutiram e sabem. (00:18:25.860 –> 00:18:29.540) O próprio Instagram sabia como o próprio Instagram fazia mal para meninas (00:18:29.540 –> 00:18:30.680) E para adolescentes e tudo mais. (00:18:30.680 –> 00:18:32.440) Então, isso continua acontecendo. (00:18:32.440 –> 00:18:35.160) Documentos internos aí vazados. (00:18:35.160 –> 00:18:40.440) Como acontece, demonstram que eles sabem dos potenciais maléficos. (00:18:40.440 –> 00:18:46.680) Para adolescentes e continuam oferecendo as plataformas ou serviços (00:18:46.680 –> 00:18:49.700) Sem levar em consideração a proteção da criança e do adolescente. (00:18:49.700 –> 00:18:53.220) Então, fica nesse primeiro grupo aí, Vinícius. (00:18:54.120 –> 00:18:54.640) Perfeito. (00:18:54.640 –> 00:18:57.720) Segundo grupo, tem a ver também. (00:18:57.720 –> 00:19:00.300) Tem a ver com crianças e adolescentes, mas não somente. (00:19:00.300 –> 00:19:03.120) Mas tem a ver também com proteção de.. (00:19:03.120 –> 00:19:05.740) Sobretudo de mulheres na internet, da imagem de mulheres (00:19:05.740 –> 00:19:12.360) E sobre como a IA tem sido utilizada especificamente pelo X ou Twitter, Vinícius? (00:19:12.360 –> 00:19:15.660) Todo mundo que fala X logo depois tem que dizer o antigo Twitter. (00:19:15.660 –> 00:19:17.800) Mas todo mundo já sabe que o X é o antigo Twitter. (00:19:18.040 –> 00:19:20.500) Você fica meio com um vício ali. (00:19:20.500 –> 00:19:22.880) E aí, o que começou? (00:19:22.880 –> 00:19:24.060) O nome virou.. (00:19:24.060 –> 00:19:26.180) Parece que o nome virou o X antigo Twitter mesmo. (00:19:26.180 –> 00:19:27.440) Junto. (00:19:27.440 –> 00:19:28.400) Que nem a HBO. (00:19:28.400 –> 00:19:31.180) Viu a HBO Max, que era HBO. (00:19:31.180 –> 00:19:33.280) Aí depois virou a HBO Max. (00:19:33.280 –> 00:19:34.760) Aí depois foi Max. (00:19:34.760 –> 00:19:35.980) Aí tinha.. (00:19:35.980 –> 00:19:36.140) Gol. (00:19:36.140 –> 00:19:38.360) Aí voltaram com a HBO agora. (00:19:38.360 –> 00:19:40.940) Eu tenho a assinatura deles lá. (00:19:40.940 –> 00:19:41.360) Meu Deus. (00:19:41.360 –> 00:19:44.700) Eu nem sei mais o que eu tô assinando lá, porque eu não sei mais o nome desse. (00:19:44.700 –> 00:19:51.960) E aí a questão que, enfim, nesses últimos meses aí virou, uma notícia muito forte (00:19:51.960 –> 00:19:57.740) Foi que o pessoal pedia lá pro Grock no X pra que ele tirasse, deixasse mulheres nuas (00:19:57.740 –> 00:20:02.920) Ou tirasse a roupa de mulheres, inclusive de crianças. (00:20:03.660 –> 00:20:10.520) E naquela perspectiva, de que a ferramenta é neutra, a ferramenta só faz aquilo que (00:20:10.520 –> 00:20:16.440) O usuário pede pra ela fazer, a culpa não é nossa e tal, mas ao mesmo tempo a ferramenta (00:20:16.440 –> 00:20:22.400) Era programada sem guardrails ali pra despir pessoas. (00:20:22.400 –> 00:20:28.940) E se ela pode ser programada para despir pessoas, me parece que também é fácil colocar guardrails (00:20:28.940 –> 00:20:35.400) Aí pra impedir que ela dispa, dispa, despir, despir pessoas. (00:20:35.400 –> 00:20:37.920) Acho que eu nunca tinha usado o verbo despir dessa forma. (00:20:37.920 –> 00:20:39.840) Então, é.. (00:20:39.840 –> 00:20:41.080) E aí o que que aconteceu? (00:20:41.080 –> 00:20:43.860) Não sei se você quer fazer uma observação agora ou depois aqui, só pra.. (00:20:43.860 –> 00:20:45.080) Não, pode sim, pode sim, pode sim. (00:20:45.080 –> 00:20:46.580) Aí o que que aconteceu? (00:20:46.580 –> 00:20:52.860) Foi toda uma pressão em cima do X, Elon Musk chega e diz, não, olha, nós vamos, (00:20:52.860 –> 00:21:00.340) Então vamos ampliar os controles aqui, só vai poder despir pessoas quem tiver a conta (00:21:00.340 –> 00:21:01.920) Paga do X. (00:21:01.920 –> 00:21:09.820) E obviamente que daí a emenda saiu pior que o soneto e no Brasil também já vimos movimentações, (00:21:10.160 –> 00:21:17.560) De três entidades aqui, a NPD, Ministério Público Federal e Senacom, em primeiro lugar fizeram (00:21:17.560 –> 00:21:25.420) Uma recomendação lá em janeiro e agora mais recentemente, depois da resposta do X, esses (00:21:25.420 –> 00:21:32.400) Três órgãos entenderam que as medidas foram insuficientes e cada um deles, na medida das (00:21:32.400 –> 00:21:36.620) Suas competências, iniciou um processo pra determinar. (00:21:36.620 –> 00:21:42.500) Aí sim, antes tinham sugerido medidas, o X informou as medidas que foram tomadas, eles (00:21:42.500 –> 00:21:47.500) Entenderam que não foram suficientes e a partir de agora começaram, cada um na medida das (00:21:47.500 –> 00:21:53.000) Suas competências, procedimentos administrativos, seja a NPD, uma medida preventiva, o Ministério (00:21:53.000 –> 00:21:58.960) Público também, um procedimento interno e a Senacom também numa medida cautelar administrativa (00:21:58.960 –> 00:22:01.700) Determinando que eles imediatamente parem. (00:22:01.700 –> 00:22:08.720) E implementem soluções técnicas e administrativas pra impedir a geração de imagens de pessoas (00:22:08.720 –> 00:22:10.000) Nuas. (00:22:10.620 –> 00:22:16.580) E pra variar. (00:22:10.620 –> 00:22:16.580) Pra variar as maiores vítimas disso foram mulheres, tá? (00:22:16.580 –> 00:22:19.800) E inclusive menores de idade, tá? (00:22:19.800 –> 00:22:20.800) E adolescentes. (00:22:20.800 –> 00:22:25.920) Isso foi o que causou, claro que, mesmo que não tivesse menores de idade envolvidas, (00:22:25.920 –> 00:22:32.620) Isso já gerou bastante polêmica, mas com menores de idade é a coisa.. (00:22:33.300 –> 00:22:37.840) E aí uma coisa, Guilherme, só uma observação, a gente já fala há muitos anos aqui no Segurança (00:22:37.840 –> 00:22:42.880) Legal, há muito tempo, essa questão da super exposição das crianças na internet e muitas (00:22:42.880 –> 00:22:43.960) Vezes pelos próprios pais. (00:22:43.960 –> 00:22:48.920) Quando a gente falava assim, ó, não expõe, não fica botando foto, não sei o quê, tu não (00:22:48.920 –> 00:22:50.900) Sabe o que vai poder ser feito com isso amanhã. (00:22:52.040 –> 00:22:56.620) E eu lembro de estar falando e falando sobre isso em 2015, em escolas, fazer umas palestras (00:22:56.620 –> 00:22:59.020) Assim, falando pro pessoal exatamente nesses termos. (00:22:59.020 –> 00:23:07.800) E agora aqui estamos nós em 2026 com o X antigo Twitter, uma ferramenta de ar embutida (00:23:07.800 –> 00:23:13.940) Que, cara, tira a roupa de adolescente, menor de idade e tudo mais. (00:23:14.480 –> 00:23:19.600) E aí, e mesmo que você seja cuidadoso com a imagem dos filhos e tal, que é realmente (00:23:19.600 –> 00:23:20.500) A recomendação.. (00:23:20.500 –> 00:23:22.560) As escolas tinham foto, publicam, é um.. (00:23:22.560 –> 00:23:28.740) Exato, não, e ainda você tem pessoas públicas, que eventualmente, eventualmente não, (00:23:28.740 –> 00:23:34.940) Mas pessoas públicas que têm a sua imagem publicada em função da sua, da sua atividade, (00:23:34.940 –> 00:23:40.600) Sei lá, uma política, pessoas do ramo político, enfim, artistas e tudo mais, e ainda (00:23:40.600 –> 00:23:46.220) Assim não há, me parece, aliás, eu tenho certeza que não há um direito de pessoas (00:23:46.220 –> 00:23:53.460) Usarem IA pra macular a imagem de mulheres, inclusive teve notícias, pegaram lá uma (00:23:53.460 –> 00:23:58.420) Primeira ministra, não lembro exatamente de qual país, e aí começaram a fazer isso (00:23:58.420 –> 00:24:02.200) Com a imagem dela pra desqualificá-la, enfim. (00:24:02.200 –> 00:24:10.580) E aí acaba entrando, Vinícius, um pouco naquilo, eu vou puxar lá pro grupo 6, (00:24:10.580 –> 00:24:16.200) Mas tem um pouco a ver, o Vinícius me mandou esses dias uma notícia de um.. (00:24:16.200 –> 00:24:21.120) Seria um aborígine, da Nova Zelândia, que fazia vídeos.. (00:24:21.120 –> 00:24:21.760) O Steve Irving. (00:24:21.760 –> 00:24:23.340) Conta aí a história, conta aí a história. (00:24:23.340 –> 00:24:23.680) O Steve Irving. (00:24:23.680 –> 00:24:24.440) . (00:24:24.440 –> 00:24:26.260) É inacreditável. (00:24:26.260 –> 00:24:29.200) O Steve Irving, o Steve Irving é um.. (00:24:29.200 –> 00:24:37.740) Um aborígine, australiano, que faz vídeos.. (00:24:37.740 –> 00:24:38.240) Neo-zelandês. (00:24:38.240 –> 00:24:38.740) Neo-zelandês. (00:24:38.740 –> 00:24:39.380) Neo-zelandês. (00:24:39.380 –> 00:24:42.400) É Nova Zelândia, não misturar Nova Zelândia com a Austrália. (00:24:42.400 –> 00:24:43.140) Nada. (00:24:43.140 –> 00:24:49.400) Neo-zelandês, que faz vídeos, aqueles vídeos assim, meio de aventura, assim, de ver os bichos (00:24:49.400 –> 00:24:50.780) De perto e meio.. (00:24:50.780 –> 00:24:55.620) Encontra uma cobra e mexe na cobra e um escorpião e por aí vai. (00:24:55.700 –> 00:24:56.700) Esses vídeos assim, sabe? (00:24:56.700 –> 00:24:57.140) E mostrando.. (00:24:57.140 –> 00:25:00.160) Mas mostrando os animais lá da Nova Zelândia. (00:25:00.160 –> 00:25:01.120) Sim, exatamente. (00:25:01.120 –> 00:25:02.460) Fazendo um negócio.. (00:25:02.460 –> 00:25:04.060) Cara, um negócio muito bem feito. (00:25:04.060 –> 00:25:05.340) Um negócio muito bem feito. (00:25:05.340 –> 00:25:06.800) Tipo um National Geographic, assim. (00:25:06.800 –> 00:25:09.320) Tinha um outro cara, aquele cara que morreu.. (00:25:09.320 –> 00:25:13.500) Bem conhecido, ele morreu com ferrão de uma arraia. (00:25:13.500 –> 00:25:14.200) Uma arraia. (00:25:14.200 –> 00:25:15.560) No peito. (00:25:15.560 –> 00:25:18.040) Eu não lembro o nome dele, mas tudo bem. (00:25:18.040 –> 00:25:21.040) .. (00:25:21.040 –> 00:25:24.880) E esse personagem é uma vibe muito parecida, tá? (00:25:25.700 –> 00:25:30.620) Cara, um negócio com, assim, muita gente seguindo. (00:25:30.620 –> 00:25:37.660) Houve 90 mil pessoas no Instagram e aí começou a chamar muita atenção, muita atenção. (00:25:37.660 –> 00:25:42.600) E aí o cara que criou o personagem veio ao público e dizia, ó, esse cara não existe. (00:25:43.400 –> 00:25:47.980) O Steve Irving era o cara que morreu com ferrão de arraia. (00:25:49.420 –> 00:25:50.400) Sim, verdade. (00:25:50.400 –> 00:25:51.480) Na notícia, sim. (00:25:51.480 –> 00:25:53.080) Eu misturei aqui que ele chamou.. (00:25:53.080 –> 00:25:54.620) É o Aboriginal Steve Irving. (00:25:54.620 –> 00:25:56.860) É o Steve Irving aborigine. (00:25:56.860 –> 00:25:57.340) Exatamente. (00:25:57.340 –> 00:25:59.780) O Steve Irving é o cara real que morreu. (00:25:59.780 –> 00:26:00.720) Isso, isso. (00:26:00.720 –> 00:26:01.220) Isso. (00:26:01.220 –> 00:26:03.380) E o nome do cara que.. (00:26:03.380 –> 00:26:06.220) Essa persona digital criada. (00:26:07.620 –> 00:26:09.340) Quem criou foi o.. (00:26:09.340 –> 00:26:10.400) Quem criou foi o.. (00:26:10.400 –> 00:26:13.720) O Keegan, John Manson, o cara que fez a.. (00:26:13.720 –> 00:26:15.140) Que criou o personagem. (00:26:15.140 –> 00:26:17.260) Cara, eu não tenho o nome do personagem aqui. (00:26:17.260 –> 00:26:20.040) Seria o Bush Legend. (00:26:20.040 –> 00:26:20.480) Mas.. (00:26:20.480 –> 00:26:21.320) Bush Legend. (00:26:21.320 –> 00:26:22.260) Esse é o canal. (00:26:22.260 –> 00:26:23.760) Esse é o canal, Bush Legend. (00:26:23.760 –> 00:26:24.520) O Bush Legend. (00:26:24.520 –> 00:26:25.260) A conta aqui, ó. (00:26:25.260 –> 00:26:26.260) Tá separado aqui. (00:26:26.260 –> 00:26:27.280) Bush Legend, a conta. (00:26:27.780 –> 00:26:30.500) Mas o interessante é que não é a conta em si, tá? (00:26:30.500 –> 00:26:33.260) Quem quiser olhar o Bush Legend lá, deve estar no ar ainda esse negócio. (00:26:33.260 –> 00:26:35.240) O interessante não é a conta em si. (00:26:35.240 –> 00:26:41.400) O interessante é que é uma coisa que tu assiste e, cara, tu não se dá a conta que (00:26:41.400 –> 00:26:42.360) Não é real. (00:26:42.360 –> 00:26:47.360) Talvez ali num vídeo ou outro tu possa até perceber, tá? (00:26:47.360 –> 00:26:50.880) Mas a maioria das pessoas não vai perceber. (00:26:50.880 –> 00:26:51.920) Não vai se dar conta, não vai se dar conta. (00:26:51.920 –> 00:26:53.560) Então, assim.. (00:26:53.560 –> 00:27:01.540) E recentemente teve um vídeo também, eu vi essa semana, ou semana passada, um vídeo (00:27:01.540 –> 00:27:06.360) Em que tava o Brad Pitt lutando com o Tom Cruise, tá? (00:27:06.360 –> 00:27:10.320) E eles discutindo os Epstein Files na luta. (00:27:10.320 –> 00:27:20.040) Eu mostrei pra minha esposa o vídeo e disse assim, olha só o trailer de um filme que eles (00:27:20.040 –> 00:27:20.940) Estão lançando e tal. (00:27:21.420 –> 00:27:24.060) Aí a gente começou a ver o vídeo, eu já tinha visto, ela começou a ver o vídeo, (00:27:24.060 –> 00:27:29.440) Assim, tá, mas aí eles falando e tal, e eles se batendo e não paravam de se bater (00:27:29.440 –> 00:27:31.840) E conversar, assim, mas que cena mais. (00:27:31.840 –> 00:27:33.080) Sem propósito. (00:27:33.480 –> 00:27:34.820) Uma coisa meio.. (00:27:34.820 –> 00:27:37.000) Mas ao mesmo tempo ela achou que fosse verdade. (00:27:37.000 –> 00:27:38.060) Aham. (00:27:38.060 –> 00:27:43.120) Ela achou que fosse verdade, porque os personagens, ali o Tom Cruise e o Brad Pitt, tá certinho (00:27:43.120 –> 00:27:43.500) Ali, cara. (00:27:43.500 –> 00:27:44.900) Claro que fica.. (00:27:44.900 –> 00:27:48.780) Depois eles começam a zoar, começam a mudar demais, assim, começam a botar uns personagens (00:27:48.780 –> 00:27:49.800) Meio estranhos no negócio. (00:27:50.560 –> 00:27:51.240) Mas é.. (00:27:51.240 –> 00:27:51.800) E há, cara. (00:27:51.800 –> 00:27:53.660) E aí isso gera tanto.. (00:27:53.660 –> 00:27:54.580) Não só uma preocupação. (00:27:54.580 –> 00:27:56.300) Agora nós estamos vando pra ano de eleição. (00:27:56.300 –> 00:27:57.360) Vamos ver o que vai acontecer. (00:27:57.360 –> 00:28:07.520) Mas não só gera essa possível confusão com quem assiste, pra quem assiste, mas também (00:28:07.520 –> 00:28:13.300) Tá gerando uma boa discussão lá nos Estados Unidos com relação, lá nos sindicatos dos (00:28:13.300 –> 00:28:16.380) Artistas e tudo mais. (00:28:16.380 –> 00:28:23.620) Porque, cara, se tu não quiser usar a imagem de alguém, que obviamente tu vai ter que pagar (00:28:23.620 –> 00:28:28.240) Pra usar a imagem do Tom Cruise, ninguém discute que mesmo que seja autorizado pelo Tom Cruise (00:28:28.240 –> 00:28:33.160) Tu vai ter que pagar o Tom Cruise pelo uso da imagem dele, mas que tu possa começar a criar (00:28:33.160 –> 00:28:37.600) Personagens completamente fictícios, ou pessoas. (00:28:37.600 –> 00:28:44.560) Atores fictícios, pra.. (00:28:37.600 –> 00:28:44.560) Pra atuarem num filme, atuarem numa série. (00:28:45.560 –> 00:28:48.320) E aí tu não precisar mais. (00:28:48.320 –> 00:28:53.580) Talvez tu possa substituir até o roteirista na brincadeira, mas tu não precisar mais (00:28:53.580 –> 00:28:55.500) De atores humanos pra atuar. (00:28:55.500 –> 00:28:57.120) Então.. (00:28:57.120 –> 00:29:01.940) Tem uma discussão bem interessante em cima disso, sabe? (00:29:01.940 –> 00:29:07.680) A questão do emprego dos artistas e da questão do conteúdo que tu entrega. (00:29:07.680 –> 00:29:09.200) Pras pessoas. (00:29:09.200 –> 00:29:11.120) Tu vai assistir um filme.. (00:29:11.120 –> 00:29:14.480) Assim, tu topa assistir um filme muito bom feito por Iá? (00:29:14.480 –> 00:29:16.560) Cara.. (00:29:16.560 –> 00:29:21.280) Eu acho que tem um elemento ético, inclusive se fala isso lá numa das notícias. (00:29:21.800 –> 00:29:27.300) Que é um preceito de trans.. (00:29:21.800 –> 00:29:27.300) Um preceito ético de transparência no uso de Iá. (00:29:27.300 –> 00:29:32.160) Então, quando a gente fala em princípios de governança de Iá, a transparência, ela (00:29:32.160 –> 00:29:36.060) Se desdobra em várias.. (00:29:32.160 –> 00:29:36.060) Várias situações. (00:29:36.060 –> 00:29:40.680) E uma das situações que a transparência se desdobra, enquanto princípio que deve reger (00:29:40.680 –> 00:29:45.320) O uso da Iá, isso eu tô falando porque é princípio já adotado na União Europeia (00:29:45.320 –> 00:29:46.940) E tudo mais, é.. (00:29:46.940 –> 00:29:51.140) . (00:29:46.940 –> 00:29:51.140) Você tem que saber que aquele conteúdo é gerado por Iá. (00:29:51.140 –> 00:29:52.800) E a grande.. (00:29:52.800 –> 00:29:54.320) E por que que isso virou notícia? (00:29:54.320 –> 00:29:55.540) Na verdade, são duas coisas. (00:29:55.540 –> 00:30:00.500) Isso virou notícia porque não se deram.. (00:29:55.540 –> 00:30:00.500) Ninguém se deu conta. (00:30:00.500 –> 00:30:05.540) Porque se diz, você mostra pra pessoa, se você olhar num vídeo e prestar atenção, (00:30:05.540 –> 00:30:06.760) Você vai descobrir que é. (00:30:06.760 –> 00:30:10.420) A questão é que hoje, até a gente comentava isso antes. (00:30:10.420 –> 00:30:17.520) Nós, eu e você e quem nos escuta, nós já estamos consumindo conteúdos gerados por (00:30:17.520 –> 00:30:18.440) Iá sem se dar conta. (00:30:18.440 –> 00:30:18.840) Por quê? (00:30:18.840 –> 00:30:23.400) Porque a lógica de consumir conteúdo em rede social não é você ficar prestando atenção (00:30:23.400 –> 00:30:28.980) Nos detalhes, a lógica é que você vai passando rapidamente sobre certos conteúdos. (00:30:28.980 –> 00:30:32.780) E você fica vendo muitos, aquela história do feed infinito que a gente já falou. (00:30:32.780 –> 00:30:38.080) Que é uma das maldições das redes sociais e o que aprisiona as pessoas lá dentro é (00:30:38.080 –> 00:30:38.860) O feed infinito. (00:30:38.860 –> 00:30:39.900) E vamos lá. (00:30:39.900 –> 00:30:42.620) O teu espírito crítico ali fica bem rebaixado. (00:30:42.840 –> 00:30:45.960) Claro que quando a gente olha o vídeo depois sabendo o que bom, tudo bem. (00:30:45.960 –> 00:30:51.860) Ontem mesmo eu tava na academia e fica uma TV ligada lá e tava passando uma propaganda (00:30:51.860 –> 00:30:53.300) Do Liquida Porto Alegre. (00:30:53.300 –> 00:30:57.000) É tipo uma liquidação de verão que eles fazem aqui na cidade. (00:30:57.800 –> 00:31:05.020) E, cara, cinco segundos da coisa já deu pra ver que era tudo gerado por Iá, cara. (00:31:05.020 –> 00:31:09.860) Toda uma propaganda gerada por Iá, até porque no final tinha uma senhora bem idosa correndo (00:31:09.860 –> 00:31:15.540) Junto com um monte de pessoas que ela não teria como uma senhora. (00:31:15.540 –> 00:31:19.400) Enfim, até teria, mas chamou a atenção o fato de ser uma senhora bem idosa correndo (00:31:19.400 –> 00:31:21.000) Loucamente na cidade, assim, sabe? (00:31:21.640 –> 00:31:25.980) Não que não seja possível, não que não seja possível. (00:31:25.980 –> 00:31:29.660) Não, não que não seja possível, mas, assim, aquilo já disparou, não, como assim. (00:31:29.660 –> 00:31:35.940) Então, você tem um elemento ético muito, isso tá acontecendo, a propaganda, eu acredito, (00:31:35.940 –> 00:31:39.720) Que o CONAR, enfim, a regulamentação da propaganda tem que deixar isso claro. (00:31:39.720 –> 00:31:45.220) Olha, você está assistindo uma reportagem, uma propaganda feita por Iá, assim como você (00:31:45.220 –> 00:31:49.340) Quando você tá consumindo um produto no supermercado, diz se aquilo ali tem transgênico (00:31:49.340 –> 00:31:51.900) Ou não, ou o que consta. (00:31:51.900 –> 00:31:52.140) Excesso de sal. (00:31:52.140 –> 00:31:53.980) Excesso de sal, por que não? (00:31:53.980 –> 00:31:58.020) Porque a gente sabe que isso é bem brain rotizável. (00:31:58.020 –> 00:31:58.900) Aham. (00:31:58.900 –> 00:32:01.200) Brain rotizável, você não inventei agora, Vinícius. (00:32:01.200 –> 00:32:02.880) É um bom verbo. (00:32:02.880 –> 00:32:04.220) Brain rotizável. (00:32:04.220 –> 00:32:13.740) Vinícius, Brasil, você já deve ter ouvido falar disso, mas Brasil e União Europeia, (00:32:13.740 –> 00:32:17.320) Consolidaram lá o seu acordo de adequação mútua. (00:32:17.320 –> 00:32:23.180) Então, basicamente, agora, no final de janeiro, foi anunciado esse reconhecimento recíproco (00:32:23.180 –> 00:32:25.560) De adequação dos regimes de proteção de dados. (00:32:25.560 –> 00:32:31.800) E tem-se pintado isso como um marco histórico, porque, além desse franco reconhecimento, (00:32:31.800 –> 00:32:35.060) A ideia é que se abra, principalmente para o Brasil. (00:32:35.440 –> 00:32:42.000) Mas a ideia é que o Brasil poderia se beneficiar com base nesse acordo de adequação, (00:32:42.000 –> 00:32:47.660) Prestando serviços, para toda a União Europeia. (00:32:47.660 –> 00:32:53.020) Então, isso poderia ampliar o uso de data centers para IA e também o uso de próprio serviço, (00:32:53.020 –> 00:32:56.040) Porque uma vez que você tem esse reconhecimento, você não precisa, (00:32:57.180 –> 00:33:00.580) Digamos assim, quando você for fazer a transferência internacional de dados, (00:33:00.580 –> 00:33:03.140) Que é uma das situações lá em que você faz de um lado para o outro, (00:33:03.140 –> 00:33:05.800) Esse reconhecimento implica na possibilidade automática, (00:33:05.800 –> 00:33:08.880) Sem, por exemplo, você pedir, precisar pedir consentimento, (00:33:08.880 –> 00:33:12.820) Ou fazer avisos adicionais, ou reconhecimentos das autoridades. (00:33:12.820 –> 00:33:18.980) Então, abre-se, de fato, um espaço comercial também, (00:33:19.040 –> 00:33:22.300) Não seja de fluxos, de fluxo seguro de dados, enfim. (00:33:22.300 –> 00:33:24.600) Qual a questão? (00:33:24.600 –> 00:33:31.800) A questão é que, quando a gente faz uma comparação em como a União Europeia tem aplicado sanções (00:33:31.800 –> 00:33:35.620) E como o Brasil tem aplicado sanções, mesmo diante desse reconhecimento, (00:33:35.620 –> 00:33:39.620) Nós notamos que há uma distância, porque no Brasil ainda há, (00:33:39.620 –> 00:33:43.980) E aqui eu falo como titular de dados pessoais, (00:33:44.360 –> 00:33:49.580) Ainda há um certo, é um certo, como é que eu vou dizer, (00:33:49.580 –> 00:33:54.640) Atraso, talvez, na aplicação de sanções em situações muito complexas. (00:33:54.640 –> 00:33:57.340) Apenas para vocês terem uma ideia de alguns números, (00:33:57.340 –> 00:34:00.120) Na França, por exemplo, agora é janeiro, fevereiro, (00:34:00.120 –> 00:34:06.280) Você teve a France Travel, foi multada em 5 milhões de euros, (00:34:06.280 –> 00:34:09.920) A Free Mobile, 42 milhões de euros, (00:34:10.920 –> 00:34:14.820) É dividido aqui em Free Mobile e Free, não sei o que é. (00:34:14.820 –> 00:34:19.140) Então, você teve aí todas essas situações somente, (00:34:19.140 –> 00:34:22.120) Ou seja, multas milionárias na França, (00:34:22.120 –> 00:34:27.400) Somente por situações de vazamentos que se confirmou que ocorreram (00:34:27.400 –> 00:34:30.300) Por causa de insuficiência de medidas de segurança (00:34:30.300 –> 00:34:32.560) Adotadas por essas organizações. (00:34:32.560 –> 00:34:34.060) Isso na França. (00:34:34.060 –> 00:34:36.940) Na Espanha, que é uma autoridade pequena, (00:34:36.940 –> 00:34:40.180) Tem, se não me engano, menos funcionários do que, (00:34:40.180 –> 00:34:43.540) Até fiz esses dias um apanhado de número de funcionários e tal, (00:34:43.540 –> 00:34:45.960) Mas acho que tem menos funcionários do que a nossa NPD, (00:34:45.960 –> 00:34:53.040) Eles terminaram 2025 com 394 procedimentos sancionadores (00:34:53.040 –> 00:34:57.040) E com multas que somadas deram 40 milhões de euros. (00:34:57.040 –> 00:35:00.040) Então, acho que para consolidar, de fato, (00:35:00.040 –> 00:35:03.700) Urge que nós tenhamos um aprimoramento, (00:35:03.700 –> 00:35:05.480) E eu não falo nem somente em multas, (00:35:05.480 –> 00:35:08.720) Eu falo em sanções, impedir certos tratamentos, (00:35:08.720 –> 00:35:14.400) Caminhar justamente para a implementação de medidas de segurança, (00:35:14.400 –> 00:35:16.680) Resolver a questão das farmácias, (00:35:16.680 –> 00:35:20.380) Resolver a questão que a gente já falou aqui no nosso podcast (00:35:20.380 –> 00:35:26.980) Sobre a farra das biometrias faciais em academias, (00:35:26.980 –> 00:35:29.580) Em condomínios. (00:35:29.580 –> 00:35:32.780) Então, acho que a gente comemora, de fato, (00:35:32.780 –> 00:35:36.060) Mas há um caminho ainda a ser perseguido, me parece, (00:35:36.060 –> 00:35:40.100) Posso estar errado, enfim, mas me parece que há um caminho ainda a ser percorrido. (00:35:40.100 –> 00:35:42.580) Isso, obviamente, é uma via de duas mãos. (00:35:42.580 –> 00:35:45.340) Então, a gente tem uma equivalência. (00:35:45.340 –> 00:35:46.080) Isso. (00:35:46.080 –> 00:35:48.500) Então, uma coisa que muda, então, por exemplo, (00:35:48.500 –> 00:35:51.660) Se você quiser usar algum data center na Europa, (00:35:51.660 –> 00:35:53.620) Na União Europeia, para fazer mais ou menos de dados (00:35:53.620 –> 00:35:57.820) E cidadãos brasileiros, em princípio, ok. (00:35:57.820 –> 00:35:59.860) Isso. (00:35:59.860 –> 00:36:02.260) Quando você tem na União Europeia, (00:36:02.260 –> 00:36:04.040) Nos países que fazem parte da União Europeia, (00:36:04.040 –> 00:36:06.980) Não é na Europa, porque você tem países que.. (00:36:06.980 –> 00:36:08.340) Sim, eu falei, União Europeia, não é Europeia. (00:36:08.340 –> 00:36:10.960) Tu tem Inglaterra que não faz mais parte da União Europeia. (00:36:10.960 –> 00:36:12.060) Inglaterra não é mais. (00:36:12.060 –> 00:36:14.520) Aí o pessoal lá da Inglaterra, (00:36:14.520 –> 00:36:15.720) Quando entra na União Europeia, (00:36:15.720 –> 00:36:18.300) Eles ficam na fila não dos residentes da União Europeia, (00:36:18.300 –> 00:36:20.040) Eles têm que enfrentar a fila de todo mundo, (00:36:20.040 –> 00:36:21.800) Mas Suíça também não é. (00:36:21.960 –> 00:36:22.660) É engraçado. (00:36:22.660 –> 00:36:24.420) A Suíça também não é. (00:36:24.420 –> 00:36:25.960) Embora a Suíça tenha, (00:36:25.960 –> 00:36:30.200) Seja conhecida justamente por hospedar sistemas, (00:36:30.200 –> 00:36:32.080) The Privacy Friendly, de segurança, (00:36:32.080 –> 00:36:34.180) Mais VPNs que ficam lá na Suíça, (00:36:34.180 –> 00:36:36.520) Se vendem, mas não faz parte da Suíça. (00:36:36.520 –> 00:36:38.740) A Suíça acho que faz parte do espaço Schengen, (00:36:38.740 –> 00:36:39.340) Se não me engano, (00:36:39.340 –> 00:36:42.320) Que permite que você entre, (00:36:42.320 –> 00:36:44.640) Sem a necessidade de passar por fronteiras, (00:36:44.640 –> 00:36:46.120) Tem o tráfego livre, (00:36:46.120 –> 00:36:47.180) Mas acho que não faz, (00:36:47.180 –> 00:36:49.740) Mas não faz da União Europeia. (00:36:51.160 –> 00:36:52.620) Bom, Vinícius, (00:36:52.620 –> 00:36:54.680) Seguindo aqui, (00:36:54.680 –> 00:36:59.520) Nós temos também toda a questão da vigilância, (00:36:59.520 –> 00:37:02.240) Lá no Grupo 5, (00:37:02.240 –> 00:37:04.420) De vigilância e privacidade, (00:37:04.420 –> 00:37:05.220) Que nós vimos, (00:37:05.220 –> 00:37:07.680) Que me chamou bastante atenção, (00:37:07.680 –> 00:37:09.320) Chamou bastante atenção, (00:37:09.320 –> 00:37:13.660) Que foi o FBI solicitando a Microsoft (00:37:13.660 –> 00:37:17.460) A entrega de chaves BitLocker. (00:37:17.460 –> 00:37:20.720) E a gente estava conversando sobre isso antes, (00:37:20.720 –> 00:37:23.100) Não é obrigatório, (00:37:23.100 –> 00:37:26.540) Que você salve a chave do BitLocker na Microsoft. (00:37:26.540 –> 00:37:26.940) Não. (00:37:26.940 –> 00:37:27.900) Você pode salvar. (00:37:27.900 –> 00:37:29.380) Pode não estar em outro lugar. (00:37:30.520 –> 00:37:33.140) O que chama atenção aqui é a possibilidade, (00:37:33.140 –> 00:37:33.740) E vejam, (00:37:33.740 –> 00:37:35.360) Assim, (00:37:35.360 –> 00:37:36.800) O FBI e a polícia, (00:37:36.800 –> 00:37:39.040) Eu tenho absoluta certeza (00:37:39.040 –> 00:37:44.300) Que todos esses órgãos de investigação, (00:37:44.300 –> 00:37:45.220) De persecução penal, (00:37:45.220 –> 00:37:46.440) Tem o direito de, (00:37:46.440 –> 00:37:47.820) Eventualmente, (00:37:47.820 –> 00:37:50.180) Por uma ordem judicial fundamentada, (00:37:50.180 –> 00:37:52.420) Pedir acesso a nuvens, (00:37:52.420 –> 00:37:54.300) Como é o que está acontecendo agora. (00:37:54.560 –> 00:37:56.020) Os grandes escândalos aí, (00:37:56.020 –> 00:37:56.820) Banco Master, (00:37:57.240 –> 00:37:57.620) Mas, assim, (00:37:57.620 –> 00:38:01.300) Grandes escândalos e de crimes e tal, (00:38:01.300 –> 00:38:04.420) O pessoal acaba acessando nuvem de gente (00:38:04.420 –> 00:38:06.180) Que deixa o WhatsApp fazendo, (00:38:06.180 –> 00:38:07.480) Não se fala muito, (00:38:07.480 –> 00:38:10.940) Mas que deixa o WhatsApp fazendo backup lá no Google, (00:38:10.940 –> 00:38:11.940) Acessa o Google, (00:38:11.940 –> 00:38:14.000) Recupera o backup e vê tudo que o cara fez, (00:38:14.000 –> 00:38:14.720) Quem conversou, (00:38:14.720 –> 00:38:16.020) E arquivos e tudo mais. (00:38:16.020 –> 00:38:18.580) Mas o que chama atenção (00:38:18.580 –> 00:38:22.160) Sobretudo como os Estados Unidos agora estão se posicionando, (00:38:22.160 –> 00:38:23.440) Nessa parte de vigilância, (00:38:23.440 –> 00:38:25.520) Já vem se posicionando ao longo dos últimos anos, (00:38:25.520 –> 00:38:27.260) De repente, (00:38:27.260 –> 00:38:30.500) O FBI pegar a tua chave do BitLocker (00:38:30.500 –> 00:38:32.240) E tão facilmente, assim, (00:38:32.240 –> 00:38:32.620) É isso? (00:38:32.620 –> 00:38:35.600) Quando tu cria, (00:38:35.600 –> 00:38:36.040) Assim, (00:38:36.040 –> 00:38:36.940) Esse recurso, (00:38:36.940 –> 00:38:40.220) Só quem tem são os usuários do Windows Pro, (00:38:40.220 –> 00:38:42.100) Pra cima, tá? (00:38:42.100 –> 00:38:42.820) Então, aquela, (00:38:42.820 –> 00:38:44.600) O Home Edition não vai ter, tá? (00:38:44.600 –> 00:38:46.840) E quando você, (00:38:46.840 –> 00:38:48.960) Isso é uma prática recomendada, tá? (00:38:48.960 –> 00:38:50.400) Principalmente em empresas. (00:38:51.340 –> 00:38:53.140) E principalmente em notebooks, (00:38:53.140 –> 00:38:54.800) Mas não somente em notebooks, (00:38:54.800 –> 00:38:55.760) Mas também em desktop, (00:38:55.760 –> 00:38:57.360) Porque desktop eventualmente estraga, (00:38:57.360 –> 00:38:58.160) Vai pra garantia, (00:38:58.160 –> 00:38:59.480) A gente já comentou sobre isso (00:38:59.480 –> 00:39:01.380) Aqui no Segurança Legal. (00:39:01.380 –> 00:39:02.240) E aí, (00:39:02.240 –> 00:39:03.660) Todos os teus dados vão lá abertos (00:39:03.660 –> 00:39:05.320) Pra quem quiser acessar. (00:39:05.320 –> 00:39:07.500) É só pegar o disco e ligar numa outra máquina e acessar. (00:39:07.500 –> 00:39:08.800) Então, (00:39:08.800 –> 00:39:10.500) O uso do BitLocker (00:39:10.500 –> 00:39:12.080) É um recurso bastante interessante, (00:39:12.080 –> 00:39:14.480) Porque ele vai cifrar todo o teu disco. (00:39:14.480 –> 00:39:15.480) Então, (00:39:15.480 –> 00:39:18.060) Se a tua máquina eventualmente for pra uma manutenção, (00:39:18.060 –> 00:39:19.280) Porque estragou alguma coisa, (00:39:19.800 –> 00:39:21.320) A equipe que tá mexendo nela (00:39:21.320 –> 00:39:23.040) Não vai conseguir acessar (00:39:23.040 –> 00:39:24.880) Os seus dados, tá? (00:39:24.880 –> 00:39:26.200) Bom, (00:39:26.200 –> 00:39:26.760) Dito isso, (00:39:26.760 –> 00:39:29.600) Quando tu faz a configuração do BitLocker, (00:39:29.600 –> 00:39:32.280) Ele gera uma chave de recuperação, (00:39:32.280 –> 00:39:33.380) Tá? (00:39:33.380 –> 00:39:35.460) E essa chave tem que ser armazenada (00:39:35.460 –> 00:39:36.400) Em algum lugar seguro. (00:39:36.400 –> 00:39:38.980) Uma opção é tu mesmo salvar essa chave (00:39:38.980 –> 00:39:39.860) E anotar em algum lugar. (00:39:39.860 –> 00:39:42.320) E a opção mais.. (00:39:42.320 –> 00:39:44.340) Anotar embaixo do teclado ali. (00:39:44.900 –> 00:39:45.680) Botar embaixo do teclado, (00:39:45.680 –> 00:39:46.600) Embaixo do monitor também. (00:39:46.600 –> 00:39:48.540) A opção mais na mão (00:39:48.540 –> 00:39:50.640) É tu salvar na tua conta a Microsoft. (00:39:50.640 –> 00:39:54.560) E o que te facilita bastante a vida, (00:39:54.560 –> 00:39:56.260) Porque tu tem mais, (00:39:56.260 –> 00:39:57.420) Tu tem vários computadores. (00:39:57.420 –> 00:39:58.880) Então, (00:39:58.880 –> 00:39:59.960) Pra um usuário normal, (00:39:59.960 –> 00:40:00.280) Assim, (00:40:00.640 –> 00:40:01.360) Do dia a dia, (00:40:01.360 –> 00:40:01.660) Pô, (00:40:01.660 –> 00:40:02.860) Ficar anotando esse negócio depois, (00:40:02.860 –> 00:40:03.780) Não perder, (00:40:03.780 –> 00:40:05.860) Tem que ter um gerenciador de chaves, (00:40:05.860 –> 00:40:06.640) Alguma coisa assim. (00:40:06.640 –> 00:40:09.620) E no momento que tu salva na Microsoft, (00:40:09.620 –> 00:40:10.020) Bom, (00:40:10.020 –> 00:40:11.680) A Microsoft obviamente tem acesso (00:40:11.680 –> 00:40:13.080) A essa tua chave. (00:40:13.080 –> 00:40:14.200) Ela não fica lá armazenada (00:40:14.200 –> 00:40:15.880) De um jeito que eles não podem acessar, (00:40:15.880 –> 00:40:17.240) Que seria interessante. (00:40:17.240 –> 00:40:18.360) Pois é. (00:40:18.360 –> 00:40:19.560) Que se frasse com a tua senha (00:40:19.560 –> 00:40:20.500) Ou coisa parecida. (00:40:20.500 –> 00:40:22.280) Mas eles não se preocuparam com isso, (00:40:22.280 –> 00:40:23.220) Então a tua chave fica lá. (00:40:23.220 –> 00:40:24.980) E a partir daí, (00:40:24.980 –> 00:40:26.060) Se eles têm, (00:40:26.060 –> 00:40:27.640) Se o recurso funciona desse jeito (00:40:27.640 –> 00:40:29.040) E tá lá descrito (00:40:29.040 –> 00:40:29.940) Que funciona desse jeito (00:40:29.940 –> 00:40:31.100) E alguém pede pra, (00:40:31.900 –> 00:40:33.980) Vem uma demanda judicial, (00:40:33.980 –> 00:40:35.760) Não se trata de, (00:40:35.760 –> 00:40:37.640) Isso é uma coisa bem importante, tá? (00:40:37.640 –> 00:40:39.440) Não se trata de uma porta (00:40:39.440 –> 00:40:39.940) Dos fundos, (00:40:39.940 –> 00:40:41.040) Não se trata de um backdoor, (00:40:41.040 –> 00:40:42.120) Tá? (00:40:42.120 –> 00:40:42.720) É diferente, (00:40:42.720 –> 00:40:44.180) Então não dá pra, (00:40:44.180 –> 00:40:45.320) Mas isso é um backdoor, (00:40:45.320 –> 00:40:45.640) A gente, (00:40:45.640 –> 00:40:47.040) As CryptoWars, (00:40:47.040 –> 00:40:47.760) Aquela coisa toda. (00:40:47.760 –> 00:40:49.740) Backdoor seria se, (00:40:49.740 –> 00:40:50.020) Tá, (00:40:50.020 –> 00:40:50.600) Tu vai lá, (00:40:50.600 –> 00:40:51.720) Criptografa, (00:40:51.720 –> 00:40:52.700) Faz a tua chave, (00:40:52.700 –> 00:40:54.800) Tu não manda pra Microsoft, (00:40:54.800 –> 00:40:56.460) Tu salva, (00:40:56.460 –> 00:40:57.860) Tu escreve num papel (00:40:57.860 –> 00:40:58.680) E guarda, (00:40:58.680 –> 00:40:59.960) Só que (00:40:59.960 –> 00:41:01.640) A criptografia teria (00:41:01.640 –> 00:41:02.520) Um backdoor, (00:41:02.520 –> 00:41:02.740) Ou seja, (00:41:02.740 –> 00:41:04.060) Teria uma chave mestra (00:41:04.060 –> 00:41:05.920) Que a Microsoft teria acesso (00:41:05.920 –> 00:41:07.060) E poderia abrir, (00:41:07.060 –> 00:41:07.480) Entende? (00:41:07.480 –> 00:41:08.800) Ou entrega essa chave pro FBI, (00:41:09.260 –> 00:41:11.140) Poder abrir o BitLocker (00:41:11.140 –> 00:41:12.640) De qualquer pessoa (00:41:12.640 –> 00:41:13.340) Na face da Terra. (00:41:13.340 –> 00:41:14.600) Isso seria (00:41:14.600 –> 00:41:15.380) Um, (00:41:15.380 –> 00:41:16.020) Um, (00:41:16.020 –> 00:41:16.700) Um, (00:41:16.700 –> 00:41:17.620) Um backdoor, (00:41:17.620 –> 00:41:18.820) Seria um key scroll da vida. (00:41:18.820 –> 00:41:20.640) Mas não é isso que tá acontecendo, (00:41:20.640 –> 00:41:21.440) O que tá acontecendo é que (00:41:21.440 –> 00:41:23.080) Se você salvar a sua chave (00:41:23.080 –> 00:41:24.100) Lá na Microsoft, (00:41:24.100 –> 00:41:25.080) Pelo menos isso que a gente sabe (00:41:25.080 –> 00:41:25.640) Até agora, (00:41:25.640 –> 00:41:27.380) Vai que surge um escândalo (00:41:27.380 –> 00:41:28.580) Que a Microsoft tá salvando (00:41:28.580 –> 00:41:29.540) Independente de tu pedindo. (00:41:30.260 –> 00:41:31.540) Mas é que se tu quiser, (00:41:31.540 –> 00:41:33.180) Tu salva a tua chave lá, (00:41:33.180 –> 00:41:34.820) A partir daí, (00:41:34.820 –> 00:41:35.960) Microsoft tem acesso, (00:41:35.960 –> 00:41:37.220) Vai vir um FBI, (00:41:38.400 –> 00:41:40.120) E solicita, (00:41:40.960 –> 00:41:41.700) Via judicial, (00:41:41.700 –> 00:41:42.220) Espero, (00:41:42.220 –> 00:41:44.220) Solicita o acesso (00:41:44.220 –> 00:41:45.200) A essa chave. (00:41:45.720 –> 00:41:47.520) Do teu BitLocker. (00:41:47.520 –> 00:41:47.760) Então, (00:41:47.760 –> 00:41:49.140) Em essência, (00:41:49.140 –> 00:41:50.320) Isso não é um backdoor, (00:41:50.840 –> 00:41:52.160) Não é um key scroll, (00:41:52.160 –> 00:41:52.800) Uma coisa assim. (00:41:53.460 –> 00:41:55.480) A sacanagem aqui (00:41:55.480 –> 00:41:56.820) É que a Microsoft (00:41:56.820 –> 00:41:57.600) Tem acesso (00:41:57.600 –> 00:41:58.600) À tua chave (00:41:58.600 –> 00:41:59.520) E se ela (00:41:59.520 –> 00:42:00.720) Consegue (00:42:00.720 –> 00:42:02.900) Passar a chave (00:42:02.900 –> 00:42:03.600) Pro FBI, (00:42:03.600 –> 00:42:04.440) Ela, (00:42:04.440 –> 00:42:05.820) Se mal intencionada (00:42:05.820 –> 00:42:06.220) Estiver, (00:42:06.220 –> 00:42:07.880) Ainda poderia usar (00:42:07.880 –> 00:42:09.000) A chave para ela (00:42:09.000 –> 00:42:09.960) Descriptografar. (00:42:09.960 –> 00:42:11.120) O ideal (00:42:11.120 –> 00:42:11.920) É que ela (00:42:11.920 –> 00:42:13.860) É que tivesse um recurso, (00:42:13.860 –> 00:42:15.420) Que ela implementasse (00:42:15.420 –> 00:42:15.800) Um recurso (00:42:15.800 –> 00:42:16.640) Que não permitisse (00:42:16.640 –> 00:42:17.760) Que ela visse a chave. (00:42:17.760 –> 00:42:18.340) Sim, (00:42:18.340 –> 00:42:18.780) Exato. (00:42:18.780 –> 00:42:20.140) Como se faz com senha, (00:42:20.360 –> 00:42:21.600) Com mais a maturidade. (00:42:21.680 –> 00:42:22.840) Teria que ter uma chave, (00:42:22.840 –> 00:42:24.540) É claro que é um pouco complexo, (00:42:24.540 –> 00:42:25.520) Teria que ter uma chave adicional (00:42:25.520 –> 00:42:26.200) Para proteger, (00:42:26.200 –> 00:42:26.820) Para cifrar (00:42:26.820 –> 00:42:28.140) Essas chaves, (00:42:28.140 –> 00:42:29.620) Isso teria que ser decifrado (00:42:29.620 –> 00:42:30.680) Na máquina do usuário (00:42:30.680 –> 00:42:31.320) Quando ele acessa, (00:42:31.320 –> 00:42:32.280) Não pode ser decifrado (00:42:32.280 –> 00:42:32.700) No servidor. (00:42:32.700 –> 00:42:33.360) Então, (00:42:33.360 –> 00:42:34.520) Se for considerar (00:42:34.520 –> 00:42:35.220) Todas as questões (00:42:35.220 –> 00:42:36.760) De segurança mesmo aí, (00:42:36.760 –> 00:42:38.240) Iria complicar um pouco (00:42:38.240 –> 00:42:38.860) A vida do usuário, (00:42:38.860 –> 00:42:39.120) Sim, (00:42:39.220 –> 00:42:39.760) Para fornecer (00:42:39.760 –> 00:42:40.600) Esse nível de segurança (00:42:40.600 –> 00:42:41.300) Que a gente está falando. (00:42:41.300 –> 00:42:42.420) Então.. (00:42:42.420 –> 00:42:42.960) E na verdade, (00:42:42.960 –> 00:42:44.300) O que eu me corrijo, (00:42:44.300 –> 00:42:44.820) Que na verdade, (00:42:44.820 –> 00:42:45.900) Ela não vai conseguir (00:42:45.900 –> 00:42:47.040) Descriptografar (00:42:47.040 –> 00:42:47.880) As suas informações (00:42:47.880 –> 00:42:49.640) Porque é o teu computador físico (00:42:49.640 –> 00:42:50.500) Que está criptografado, (00:42:50.500 –> 00:42:51.400) Então ela vai ter acesso (00:42:51.400 –> 00:42:51.920) À chave (00:42:51.920 –> 00:42:53.660) E aí realmente (00:42:53.660 –> 00:42:55.040) Só uma força policial (00:42:55.040 –> 00:42:56.020) Que tiver acesso (00:42:56.020 –> 00:42:56.960) Ao computador físico (00:42:56.960 –> 00:42:57.560) É que precisaria (00:42:57.560 –> 00:42:57.920) Dar a chave (00:42:57.920 –> 00:42:59.460) Para descriptografá-lo. (00:42:59.460 –> 00:43:00.060) Não ela. (00:43:00.060 –> 00:43:01.140) E ela, (00:43:01.140 –> 00:43:01.560) Se quiser, (00:43:01.560 –> 00:43:02.220) Depois. (00:43:02.220 –> 00:43:03.760) Depois que tu bota a máquina. (00:43:05.180 –> 00:43:06.040) Ela não precisa, (00:43:06.040 –> 00:43:07.960) Ela não precisa da chave. (00:43:08.480 –> 00:43:10.860) Mas o que a Forbes, (00:43:11.140 –> 00:43:12.620) Que é o que está na notícia (00:43:12.620 –> 00:43:13.460) Que colocou, (00:43:13.740 –> 00:43:16.500) Que Apple e Meta, (00:43:16.500 –> 00:43:17.460) Dizem eles, (00:43:17.460 –> 00:43:20.100) Que configuram os seus sistemas (00:43:20.100 –> 00:43:20.940) De forma que eles (00:43:20.940 –> 00:43:22.080) Não tenham acesso à chave. (00:43:22.080 –> 00:43:22.620) Então, portanto, (00:43:22.620 –> 00:43:23.540) Seriam mais seguros. (00:43:24.100 –> 00:43:24.640) Mas, Vinícius, (00:43:24.640 –> 00:43:24.960) Então, (00:43:24.960 –> 00:43:26.440) Uma outra notícia (00:43:26.440 –> 00:43:28.340) Que eu me lembrei, (00:43:28.340 –> 00:43:29.780) Não estava na nossa pauta, (00:43:29.780 –> 00:43:30.680) Mas eu lembrei (00:43:30.680 –> 00:43:31.940) E pesquisei aqui, (00:43:31.940 –> 00:43:32.720) Foi uma ação (00:43:32.720 –> 00:43:33.500) Que foi apresentada (00:43:33.500 –> 00:43:34.360) Lá nos Estados Unidos, (00:43:34.360 –> 00:43:35.260) Nessa linha. (00:43:35.260 –> 00:43:37.020) Da questão das proteções (00:43:37.020 –> 00:43:38.200) Criptográficas (00:43:38.200 –> 00:43:40.780) Que são vendidas. (00:43:40.780 –> 00:43:42.580) De que uma ação judicial (00:43:42.580 –> 00:43:43.440) Contra a Meta, (00:43:43.440 –> 00:43:44.920) Inclusive com autores (00:43:44.920 –> 00:43:46.160) De vários países diferentes, (00:43:46.160 –> 00:43:47.300) Dizendo que (00:43:47.300 –> 00:43:49.480) Eles teriam acesso (00:43:49.480 –> 00:43:51.700) Às conversas do WhatsApp, (00:43:51.840 –> 00:43:53.320) Mesmo criptografadas. (00:43:53.320 –> 00:43:54.740) Eu não li, (00:43:54.740 –> 00:43:56.000) Não fui mais a fundo (00:43:56.000 –> 00:43:56.800) Nos argumentos (00:43:56.800 –> 00:43:57.540) Que eles colocam, (00:43:57.540 –> 00:43:58.380) A Meta negou, (00:43:58.380 –> 00:43:59.780) Diz que não tem acesso, (00:43:59.780 –> 00:44:00.420) Diz que é (00:44:00.420 –> 00:44:03.700) Criptografia ponta a ponta. (00:44:03.700 –> 00:44:05.360) Que é como a criptografia (00:44:05.360 –> 00:44:06.820) Tem que ser ponta a ponta mesmo. (00:44:06.820 –> 00:44:11.880) E que a IA leria parte do. (00:44:11.880 –> 00:44:13.080) A IA da Meta (00:44:13.080 –> 00:44:14.460) , Leria parte do conteúdo, (00:44:14.460 –> 00:44:15.280) Mas somente aquilo (00:44:15.280 –> 00:44:16.100) Que você envia (00:44:16.100 –> 00:44:18.680) Para a própria Meta e tal, (00:44:18.680 –> 00:44:21.280) E que seriam alegações falsas. (00:44:21.400 –> 00:44:23.120) Não fui mais atrás disso, (00:44:23.120 –> 00:44:23.520) Mas assim, (00:44:23.520 –> 00:44:24.080) Apenas lembrando (00:44:24.080 –> 00:44:25.840) Que isso está acontecendo. (00:44:25.840 –> 00:44:26.900) Lembrando também (00:44:26.900 –> 00:44:28.220) Que o próprio WhatsApp, (00:44:28.220 –> 00:44:31.240) Ele é vendido. (00:44:31.240 –> 00:44:34.340) Como usando a criptografia (00:44:34.340 –> 00:44:36.700) Presente também no Signal. (00:44:36.700 –> 00:44:39.100) Que faz do Signal. (00:44:39.100 –> 00:44:40.920) Também uma ferramenta mais, (00:44:40.920 –> 00:44:41.840) Digamos assim, (00:44:41.840 –> 00:44:43.240) A única questão, (00:44:43.240 –> 00:44:45.000) Reafirmo aqui. (00:44:45.000 –> 00:44:46.680) É que quando você faz (00:44:46.680 –> 00:44:48.640) O backup das suas conversas (00:44:48.640 –> 00:44:50.200) Do WhatsApp no Google (00:44:50.200 –> 00:44:51.640) Ou em outra ferramenta (00:44:51.640 –> 00:44:52.280) De backup, (00:44:52.280 –> 00:44:53.620) Aí sim, (00:44:53.620 –> 00:44:55.400) Não somente forças policiais (00:44:55.400 –> 00:44:56.300) Conseguiriam ter acesso, (00:44:56.300 –> 00:44:57.200) Mas se alguém tem acesso (00:44:57.200 –> 00:44:58.460) À tua conta do Google, (00:44:58.460 –> 00:45:00.360) Além de todos os teus e-mails, (00:45:00.360 –> 00:45:01.220) Que é algo crítico, (00:45:01.220 –> 00:45:02.780) Conversas do WhatsApp (00:45:02.780 –> 00:45:04.700) Talvez seja mais crítico ainda. (00:45:04.700 –> 00:45:05.960) Porque as pessoas falam. (00:45:05.960 –> 00:45:08.020) A forma como você usa o WhatsApp (00:45:08.020 –> 00:45:09.120) Para assuntos, (00:45:09.120 –> 00:45:10.400) Inclusive tem assuntos médicos (00:45:10.400 –> 00:45:11.320) Muitas vezes. (00:45:11.320 –> 00:45:13.640) Vai lá, conversa com o teu médico, (00:45:13.640 –> 00:45:14.640) Pede receita, (00:45:14.720 –> 00:45:15.640) Então todas essas coisas (00:45:15.640 –> 00:45:16.760) Ficam lá dentro também. (00:45:16.760 –> 00:45:18.020) Assim, (00:45:18.020 –> 00:45:19.640) Essa ação coletiva (00:45:19.640 –> 00:45:20.660) Que está sendo movida, (00:45:20.660 –> 00:45:21.180) Primeiro, (00:45:21.180 –> 00:45:23.140) O protocolo de comunicação (00:45:23.140 –> 00:45:24.220) Do WhatsApp, (00:45:24.220 –> 00:45:26.280) Eles usam, (00:45:26.280 –> 00:45:27.520) É o Signal Protocol (00:45:27.520 –> 00:45:28.600) Que foi criado pelo Moxi, (00:45:28.600 –> 00:45:29.940) O Moxi Margin Spike, (00:45:29.940 –> 00:45:30.540) Tá? (00:45:30.540 –> 00:45:32.380) Fundador da Open (00:45:32.380 –> 00:45:33.820) Wiseper Systems, (00:45:33.820 –> 00:45:34.460) Tá? (00:45:34.460 –> 00:45:37.300) Hoje é Signal Foundation, (00:45:37.300 –> 00:45:37.760) Tá? (00:45:37.760 –> 00:45:39.180) Ou Sina Foundation. (00:45:39.180 –> 00:45:41.420) E o protocolo em si, (00:45:41.420 –> 00:45:42.340) Ele é sólido, (00:45:42.340 –> 00:45:43.220) Tá? (00:45:43.860 –> 00:45:44.980) E aí nós temos (00:45:44.980 –> 00:45:47.680) Uma primeira coisa já de cara, (00:45:47.680 –> 00:45:49.400) Quando você interage com a IA, (00:45:49.400 –> 00:45:53.540) Você já saiu fora desse protocolo. (00:45:53.540 –> 00:45:53.960) Sim. (00:45:53.960 –> 00:45:55.740) Quando você interagir com a IA, (00:45:55.740 –> 00:45:56.760) Você já está mandando coisa (00:45:56.760 –> 00:45:58.880) Para fora da tua conversa privada ali, (00:45:58.880 –> 00:45:59.260) Digamos, (00:45:59.260 –> 00:46:00.940) Tu está interagindo diretamente com a meta (00:46:00.940 –> 00:46:02.800) E obviamente a meta vai ter acesso ao conteúdo (00:46:02.800 –> 00:46:05.060) Até para poder passar pelos modelos (00:46:05.060 –> 00:46:05.440) Dela lá, (00:46:05.440 –> 00:46:06.160) Do LLM dela. (00:46:06.160 –> 00:46:08.920) A alegação que está sendo feita (00:46:08.920 –> 00:46:11.860) É de que existiria, (00:46:12.140 –> 00:46:12.600) Aí sim, (00:46:12.600 –> 00:46:14.300) Meio que uma porta dos fundos, (00:46:14.300 –> 00:46:14.460) Tá? (00:46:14.460 –> 00:46:17.820) Que a meta pode acionar (00:46:17.820 –> 00:46:19.500) Por conta (00:46:19.500 –> 00:46:22.100) E ela teria praticamente um acesso (00:46:22.100 –> 00:46:23.080) Em tempo real (00:46:23.080 –> 00:46:24.200) À conversa do usuário. (00:46:24.200 –> 00:46:26.580) É isso que está sendo alegado. (00:46:26.580 –> 00:46:27.980) Então, (00:46:27.980 –> 00:46:28.940) Então, (00:46:28.940 –> 00:46:29.940) Tu tens o protocolo (00:46:29.940 –> 00:46:31.120) Signo ali em andamento, (00:46:31.120 –> 00:46:33.580) Mas o aplicativo em si (00:46:33.580 –> 00:46:35.340) Aceitaria uma task lá, (00:46:35.340 –> 00:46:36.280) Uma tarefa (00:46:36.280 –> 00:46:38.200) Que ativaria esse processo (00:46:38.200 –> 00:46:40.540) De monitoramento das mensagens. (00:46:40.540 –> 00:46:43.160) Se o protocolo está bem implementado (00:46:43.160 –> 00:46:44.400) No WhatsApp, (00:46:44.400 –> 00:46:46.100) A gente imagina que esteja, (00:46:46.100 –> 00:46:48.320) Lembra que ele protege (00:46:48.320 –> 00:46:49.700) A comunicação fim a fim. (00:46:49.700 –> 00:46:51.040) Certo? (00:46:51.040 –> 00:46:51.360) Então, (00:46:51.360 –> 00:46:52.560) O Vinícius se comunicando (00:46:52.560 –> 00:46:53.220) Com o Guilherme, (00:46:53.220 –> 00:46:54.580) Só o Guilherme, (00:46:54.580 –> 00:46:55.440) Na ponta dele, (00:46:55.440 –> 00:46:56.800) Vai conseguir decifrar a mensagem (00:46:56.800 –> 00:46:57.540) E ver o conteúdo. (00:46:57.540 –> 00:46:59.060) E vice-versa (00:46:59.060 –> 00:47:00.000) Quando o Guilherme me responde. (00:47:00.000 –> 00:47:00.200) Então, (00:47:00.200 –> 00:47:01.640) Quem está no meio do caminho, (00:47:02.520 –> 00:47:03.620) A meta está no meio do caminho, (00:47:03.620 –> 00:47:04.400) Não conseguiria ver (00:47:04.400 –> 00:47:05.120) Essas mensagens. (00:47:05.120 –> 00:47:06.240) Agora, (00:47:06.240 –> 00:47:07.680) Se eles conseguem mandar (00:47:07.680 –> 00:47:09.280) Um comando para a ponta, (00:47:09.280 –> 00:47:11.140) Que também é deles, (00:47:11.140 –> 00:47:12.100) Que é o aplicativo, (00:47:12.100 –> 00:47:14.860) Aí o software pode fazer (00:47:14.860 –> 00:47:15.360) Qualquer coisa (00:47:15.360 –> 00:47:16.040) Que eles programarem. (00:47:16.040 –> 00:47:17.120) Então, (00:47:17.120 –> 00:47:17.780) O que eles estão acusando (00:47:17.780 –> 00:47:19.980) É que existe um comando aqui (00:47:19.980 –> 00:47:21.200) Que eles poderiam mandar (00:47:21.200 –> 00:47:22.000) Para a ponta, (00:47:22.000 –> 00:47:22.560) Para um endpoint, (00:47:22.560 –> 00:47:23.160) Que seria (00:47:23.160 –> 00:47:24.500) Ou o celular do Guilherme (00:47:24.500 –> 00:47:24.920) Ou o meu, (00:47:24.920 –> 00:47:26.960) E a partir daí (00:47:26.960 –> 00:47:28.180) Acompanhar as mensagens (00:47:28.180 –> 00:47:30.060) Praticamente em tempo real. (00:47:30.060 –> 00:47:30.740) Então, (00:47:30.740 –> 00:47:32.480) O protocolo continua sendo seguro, (00:47:33.100 –> 00:47:34.620) Ninguém no meio do caminho (00:47:34.620 –> 00:47:35.540) Consegue pegar (00:47:35.540 –> 00:47:37.080) A tua comunicação, (00:47:37.080 –> 00:47:38.120) Mas (00:47:38.120 –> 00:47:39.860) A meta, (00:47:39.860 –> 00:47:41.000) Assim como qualquer outro (00:47:41.000 –> 00:47:42.200) Adversário na ponta, (00:47:42.200 –> 00:47:42.720) Conseguiria (00:47:42.720 –> 00:47:43.720) E ela tem a vantagem (00:47:43.720 –> 00:47:45.160) De controlar o software, (00:47:45.400 –> 00:47:45.940) Então, assim, (00:47:45.940 –> 00:47:48.040) Controlar o software cliente (00:47:48.040 –> 00:47:49.200) E que é um baita de um problema. (00:47:49.200 –> 00:47:50.800) É a grande questão (00:47:50.800 –> 00:47:52.680) Da criptografia aplicada. (00:47:52.680 –> 00:47:53.880) Não parece ser um problema (00:47:53.880 –> 00:47:55.140) No modelo criptográfico, (00:47:55.140 –> 00:47:56.620) Embora a IA tenha descoberto (00:47:56.620 –> 00:47:57.120) Esses dias (00:47:57.120 –> 00:47:58.620) No OpenSSL (00:47:58.620 –> 00:47:59.400) E não sei quantos (00:47:59.400 –> 00:48:00.120) Zero Days (00:48:00.120 –> 00:48:02.200) Numa passada ali. (00:48:02.200 –> 00:48:03.160) Que já foram corrigidos (00:48:03.160 –> 00:48:03.640) E tudo mais, (00:48:03.640 –> 00:48:04.820) Mas (00:48:04.820 –> 00:48:07.040) O perplexity (00:48:07.040 –> 00:48:08.800) Chamou a atenção (00:48:08.800 –> 00:48:10.540) De um fato interessante. (00:48:10.540 –> 00:48:11.640) Vale notar (00:48:11.640 –> 00:48:12.720) Que o escritório de advocacia (00:48:12.720 –> 00:48:13.760) Responsável pela ação (00:48:13.760 –> 00:48:14.320) É o mesmo (00:48:14.320 –> 00:48:14.880) Que representa (00:48:14.880 –> 00:48:15.780) O grupo NSO, (00:48:15.780 –> 00:48:17.580) Criadores do Pegasus. (00:48:17.580 –> 00:48:19.460) Em outro processo (00:48:19.460 –> 00:48:20.800) Contra o próprio WhatsApp, (00:48:20.800 –> 00:48:21.820) Que levanta questionamentos (00:48:21.820 –> 00:48:22.760) Sobre os interesses (00:48:22.760 –> 00:48:23.380) Por trás (00:48:23.380 –> 00:48:24.280) Da ação, (00:48:24.280 –> 00:48:24.620) Claro, (00:48:24.620 –> 00:48:25.260) O caso ainda (00:48:25.260 –> 00:48:27.040) Não foi julgado. (00:48:29.020 –> 00:48:29.940) Vamos ver o que vai (00:48:29.940 –> 00:48:31.300) Aparecer aí, (00:48:31.300 –> 00:48:32.120) Daqui a pouco (00:48:32.120 –> 00:48:34.180) Daqui a pouco (00:48:34.180 –> 00:48:35.160) Se mostra (00:48:35.160 –> 00:48:35.680) Que de fato (00:48:35.680 –> 00:48:36.740) Os caras tinham esse acesso, (00:48:36.960 –> 00:48:37.360) Vai saber. (00:48:38.380 –> 00:48:39.720) Diz que parece (00:48:39.720 –> 00:48:40.680) Que teria evidências (00:48:40.680 –> 00:48:42.380) No código, (00:48:42.380 –> 00:48:43.700) Alguma coisa assim, (00:48:43.700 –> 00:48:44.520) Mas enfim, (00:48:44.520 –> 00:48:46.340) Não vimos essas evidências. (00:48:46.340 –> 00:48:47.340) Vinícius, (00:48:47.340 –> 00:48:48.560) Aqui no Brasil (00:48:48.560 –> 00:48:49.000) Gosta, (00:48:49.000 –> 00:48:49.760) O pessoal gosta (00:48:49.760 –> 00:48:50.500) De dizer que o ano (00:48:50.500 –> 00:48:51.020) Só começa (00:48:51.020 –> 00:48:52.140) Depois do carnaval. (00:48:52.480 –> 00:48:53.160) Então como (00:48:53.160 –> 00:48:55.040) Já passou o carnaval, (00:48:55.040 –> 00:48:56.180) A gente pode mais uma vez (00:48:56.180 –> 00:48:57.340) Dizer feliz ano novo (00:48:57.340 –> 00:48:58.260) Para os nossos ouvintes. (00:48:58.260 –> 00:49:00.820) É um antes e um depois. (00:49:00.820 –> 00:49:04.080) E estamos de volta. (00:49:04.080 –> 00:49:05.100) Vamos ver se a gente consegue (00:49:05.100 –> 00:49:05.720) Agora manter (00:49:05.720 –> 00:49:08.220) A cadência semanal (00:49:08.220 –> 00:49:09.100) Aí de gravações (00:49:09.100 –> 00:49:10.760) E esperamos que, (00:49:10.760 –> 00:49:11.740) Não sei se você tem (00:49:11.740 –> 00:49:12.540) Mais alguma observação, (00:49:12.540 –> 00:49:12.920) Vinícius, (00:49:12.920 –> 00:49:14.080) Já vou terminando também. (00:49:14.080 –> 00:49:14.940) Não, não, (00:49:14.940 –> 00:49:15.400) É isso aí. (00:49:15.400 –> 00:49:16.380) A gente já está, (00:49:16.380 –> 00:49:16.800) Inclusive, (00:49:16.800 –> 00:49:18.100) Chegando no meio-dia. (00:49:18.100 –> 00:49:19.520) A gente teve vários (00:49:19.520 –> 00:49:20.660) Problemas técnicos hoje (00:49:20.660 –> 00:49:21.700) Ao longo da gravação. (00:49:22.240 –> 00:49:22.760) Exato. (00:49:22.760 –> 00:49:24.260) Assim, (00:49:24.260 –> 00:49:25.540) É ruim quando a gente (00:49:25.540 –> 00:49:26.060) Fica muito tempo (00:49:26.060 –> 00:49:26.560) Sem gravar. (00:49:26.560 –> 00:49:27.840) Aí algumas coisas (00:49:27.840 –> 00:49:28.940) Mudam de versão (00:49:28.940 –> 00:49:30.640) E já atrapalham a vida. (00:49:30.640 –> 00:49:32.080) Se a gente está (00:49:32.080 –> 00:49:32.820) Gravando toda hora, (00:49:32.820 –> 00:49:34.700) A mudança é mais suave (00:49:34.700 –> 00:49:36.760) Do que desse jeito. (00:49:36.760 –> 00:49:38.460) Mas de qualquer forma, (00:49:38.460 –> 00:49:38.960) Deu tudo certo. (00:49:38.960 –> 00:49:39.620) Não, tudo certo. (00:49:39.620 –> 00:49:41.100) Se você está ouvindo. (00:49:41.100 –> 00:49:44.220) Esperamos que esteja ouvindo, (00:49:44.220 –> 00:49:45.160) Senão vai ficar algo.. (00:49:45.160 –> 00:49:45.300) Esperamos que sim. (00:49:45.300 –> 00:49:47.300) Então nos encontraremos (00:49:47.300 –> 00:49:48.660) Agora no próximo episódio (00:49:48.660 –> 00:49:49.280) Do podcast (00:49:49.280 –> 00:49:50.660) Segurança Legal. (00:49:50.660 –> 00:49:51.800) Até a próxima! (00:49:52.000 –> 00:49:53.420) Até a próxima!  

 

We also recommend:


Esri Speaker Series Podcasts
Esri

The Grid: Photography Podcast
Kelby Media Group

Thinking Caps
Cheetah Digital

Nothing
Maanya

Cyberbullying
Maria Eduarda Barbosa

Quantilus Innovation Podcasts
Quantilus

GadgetArq.com
Mark

The Dutch BI Podcast
Ronald Konijnenburg

AlphaMirrorless
This Week in Photo

Application Security Weekly (Video)
Security Weekly Productions

The Decentralists
Mike Cholod, Henry Karpus & Geoff Glave

CURIOUS
CURIOUS Iniciativa BID