top of page

Nos anos de 2020 e 2021, um casal formado por um homem trans e uma pessoa não binária publicou duas fotos com mamilos à mostra, tendo sido removidas pelo Instagram por serem consideradas conteúdo explícito.

.

No último dia 17, o Comitê de Supervisão da Meta derrubou a censura imposta. Este órgão tem a competência para decidir em última instancia sobre a publicação de conteúdos no Facebook e no Instagram.

.

A decisão do Comitê recomendou que a plataforma reveja sua política sobre nudez e atividade sexual para respeitar direitos humanos e evitar a discriminação em razão do gênero.

.

A Meta tem o prazo de 60 dias para decidir se acatará a recomendação. Em caso positivo, possivelmente precisará derrubar a censura a mamilos femininos no Instagram, o que já era alvo de protestos. A decisão deste ano fez circular a hashtag #freethenipple.

.

Como treinar a inteligência artificial para situações complexas e casuísticas?

.

Fonte: https://www1.folha.uol.com.br/tec/2023/01/sancao-a-casal-faz-comite-pedir-que-instagram-reveja-politica-sobre-nudez.shtml?pwgt=l94mlh3tzdw7q0xekj7hnxd2gxka756q8lpuwb332ahh7pj6&utm_source=whatsapp&utm_medium=social&utm_campaign=compwagift


O primeiro advogado robô do mundo funcionará no smartphone do réu por meio de um aplicativo chamado 'DoNotPay' e ouvirá os argumentos do tribunal em tempo real, dizendo ao réu o que dizer via fone de ouvido.

.

A audiência, que ocorrerá em fevereiro de 2023 está causando polêmica, mas os fabricantes do advogado robô ainda não divulgaram a localização do tribunal ou o nome do réu.

.

A ideia veio da empresa DoNotPay, fundada em 2015 na Califórnia por Joshua Browder, cientista da computação da Universidade de Stanford, para impugnar as multas de estacionamento. Joshua lançou a tecnologia como um chatbot que fornece aconselhamento jurídico aos consumidores que lidam com multas, taxas atrasadas e multas de estacionamento, mas a empresa mudou para a IA em 2020.

.

No caso da advocacia, questões éticas precisam ser sopesadas. Em caso de erro ou comportamento inesperado que prejudique a defesa, como responsabilizar os bots de IA? Este é apenas UM dos inúmeros problemas que podem surgir com o uso dessa tecnologia.

.

Seguiremos de 👀!

.

Fonte: https://www.businessinsider.in/tech/news/for-the-first-time-in-history-an-ai-bot-will-reportedly-defend-a-human-in-court/articleshow/96785418.cms


Inaugurando o ano de 2023, desenvolvedores de tecnologia da Microsoft apresentam um novo modelo de IA de texto em fala chamado VALL-E, que pode simular de perto a voz de uma pessoa quando recebe uma amostra de áudio de três segundos.

.

A partir do momento em que o o VALL-E “aprende” aquela entonação, ele pode sintetizar o áudio dessa pessoa dizendo qualquer coisa – e fazê-lo de uma maneira que tente preservar o tom emocional do falante.

.

A Microsoft chama o VALL-E de "modelo de linguagem de codec neural" e se baseia em uma tecnologia chamada EnCodec, que a Meta anunciou em outubro de 2022.

.

Além de preservar o timbre vocal e o tom emocional de um falante, o VALL-E também pode imitar o "ambiente acústico" do áudio da amostra. Por exemplo, se a amostra veio de uma chamada telefônica, a saída de áudio simulará as propriedades acústicas e de frequência de uma chamada telefônica em sua saída sintetizada.

.

A tecnologia desperta preocupação dos pesquisadores, que apontam para o risco de falsificação de identificação para o cometimento de fraudes. Por esta razão, é preciso construir um modelo de detecção para discriminar se um clipe de áudio foi sintetizado pela VALL-E e tornar isso de fácil acesso.

.

Seguiremos acompanhando o surgimento das novas tecnologias e seus riscos para o Direito!

.

Fonte: https://arstechnica.com/information-technology/2023/01/microsofts-new-ai-can-simulate-anyones-voice-with-3-seconds-of-audio/

bottom of page