Siga-nos:

Instagram Facebook LinkedIn Pinterest YouTube
the new york times

The New York Times abre processo bilionário contra OpenAi e Microsoft

Empresas Internacional

O renomado jornal The New York Times entrou recentemente com um processo bilionário contra as gigantes tecnológicas OpenAI e Microsoft no tribunal federal de Manhattan. A ação judicial alega que o conteúdo jornalístico do NYT foi utilizado sem autorização no treinamento de modelos de inteligência artificial como o ChatGPT, da OpenAI, e o Copilot, da Microsoft.

De acordo com o processo, as empresas teriam se envolvido em uma violação massiva dos direitos autorais do jornal ao incorporar seu material protegido na base de dados usada para treinar os modelos de IA. O NYT acusa as companhias de realizarem cópias não autorizadas de milhares de artigos publicados pelo veículo ao longo de anos.

A violação dos direitos autorais prejudicaria diretamente o modelo de negócios do NYT, que depende da receita advinda do licenciamento de seu conteúdo premium para outros players. Caso a alegação se comprove verdadeira, as implicações para OpenAI e Microsoft podem ser graves, incluindo indenizações bilionárias e restrições ao uso de determinados tipos de dados.

O caso joga luz sobre as questões complexas envolvendo direitos autorais e novas tecnologias como inteligência artificial. À medida que modelos de IA se tornam mais avançados, surgem desafios sobre como equilibrar a inovação tecnológica e a proteção da propriedade intelectual. Esse debate tenderá a se aprofundar nos próximos anos.

--------------- Continua após a publicidade ---------------

VEJA: OpenAI quer colocar ChatGPT nas salas de aula, com capitalização de US$7 trilhões no setor educacional

NYT exige indenização bilionária e destruição de modelos de IA

Em adição à acusação de violação massiva de direitos autorais, o processo do New York Times contra a OpenAI e a Microsoft inclui dois pedidos principais.

Primeiro, o NYT exige uma indenização bilionária pelos supostos danos causados pelo uso não autorizado de seu material jornalístico protegido por copyright. O valor exato da indenização ainda precisará ser determinado no curso do processo judicial, mas espera-se que seja de alguns bilhões de dólares dada a gravidade da infração alegada.

Além disso, o veículo pede que as empresas identifiquem todos os modelos de IA e bancos de dados de treinamento que contenham conteúdo protegido do NYT e subsequentemente “destruam” esses programas e conjuntos de dados. Isso teria o objetivo de evitar usos futuros não licenciados do material jornalístico pelo duo de tecnologia.

Caso o pedido seja atendido, poderia representar um golpe significativo nos negócios da OpenAI e Microsoft envolvendo modelos de linguagem avançados, que dependem de enormes bases de dados de texto para seu treinamento. A batalha legal sobre o caso promete ser árdua e custosa para ambos os lados.

VEJA TAMBÉM: ChatGPT prevê preço do Bitcoin para início de 2024. Confira!

--------------- Continua após a publicidade ---------------

Uso não autorizado ameaça jornalismo independente, diz NYT

Ao mover a ação contra OpenAI e Microsoft, o New York Times argumenta que o caso tem implicações importantes para o futuro do jornalismo independente e de qualidade. De acordo com o veículo, se organizações jornalísticas não puderem controlar e monetizar o uso de seu conteúdo, haverá menos recursos para investir em reportagens investigativas e cobertura crítica da realidade.

Isso porque, para o NYT, a receita potencial do licenciamento de seu material premium é essencial para financiar a produção de jornalismo profissional, que envolve custos significativos com repórteres, editores, advogados, etc. Se esse conteúdo for utilizado de graça por empresas de tecnologia, uma fonte vital de recursos secaria, forçando cortes.

Conforme afirmou o NYT em seu processo, “se o Times e outras organizações jornalísticas não puderem produzir e proteger seu jornalismo independente, haverá um vácuo que nenhum computador ou inteligência artificial poderá preencher. Menos jornalismo será produzido e o custo para a sociedade será enorme”.

Portanto, na visão do veículo, a questão tem relação direta com a preservação do jornalismo profissional de qualidade como um bem público essencial para a democracia. Trata-se de um argumento poderoso que tenderá a repercutir no debate mais amplo sobre o impacto da IA.

Desafios do treinamento em larga escala de modelos de linguagem

A polêmica envolvendo o New York Times destaca as dificuldades técnicas e éticas relacionadas ao treinamento em larga escala de modelos de linguagem artificial como o ChatGPT, segundo especialistas. Isso porque a criação desses sistemas de IA, que podem gerar texto coerente, depende de enormes quantidades de dados de texto para seu “aprendizado”.

Em muitos casos, o conteúdo usado pelas empresas de tecnologia é coletado na internet sem autorização explícita, em violação potencial das leis de direitos autorais. Coletar e rotular manualmente tal volume de dados licenciados seria logisticamente difícil e proibitivamente caro.

Além disso, mesmo quando usa textos públicos, é um desafio para as companhias garantir que todo o conteúdo seja ético e esteja livre de vieses ou desinformação. O risco é que os modelos de IA repliquem e amplifiquem os problemas do material usado em seu treinamento.

Para equilibrar inovação e princípios éticos, pesquisadores têm chamado por investimentos em novas técnicas de aprendizado de máquina, curadoria aprimorada de dados e parcerias com detentores de propriedade intelectual. Avanços nessas frentes permitiriam o desenvolvimento responsável de IA generativa.

Uso não autorizado gera riscos éticos e financeiros

Especialistas apontam uma série de riscos éticos e financeiros decorrentes do uso não autorizado de conteúdo protegido no treinamento de modelos de IA, como alega o New York Times em relação à OpenAI e Microsoft.

Além dos óbvios prejuízos financeiros aos detentores dos direitos autorais, o uso irresponsável de dados no machine learning pode replicar e amplificar uma variedade de problemas, desde vieses e desinformação até linguagem tóxica e radicalismo. Isso comprometeria a qualidade e segurança dos sistemas de IA resultantes.

Outra questão são os potenciais danos à reputação das empresas de tecnologia flagradas ignorando direitos autorais. Mesmo que não sejam penalizadas legalmente, as companhias podem sofrer desgaste em sua imagem pública e relação com fornecedores de dados.

Para mitigar essas questões, defensores de uma IA ética preconizam maior transparência e cuidado no processo de obtenção e seleção de dados usados no treinamento de algoritmos. As empresas também devem estar dispostas a negociar acordos e remunerar adequadamente os provedores de conteúdo premium.

SAIBA MAIS: Microsoft oferece cursos gratuitos de tecnologia, com certificado

Outros processos recentes envolvendo IA e direitos autorais

A ação judicial do New York Times contra OpenAI e Microsoft se soma a outros processos recentes que também acusam o uso não autorizado de conteúdo protegido no desenvolvimento de sistemas de inteligência artificial.

Um exemplo foi a ação movida pela Universal Music Group contra a startup Anthropic, criadora do modelo de linguagem Claude, por suposto uso não licenciado de letras de música em seu banco de dados.

Já um grupo de autores liderado pela apresentadora Sarah Silverman entrou com um processo contra a Meta e a OpenAI em um tribunal federal de San Francisco por violação dos direitos autorais de textos literários usados no treinamento de IA das empresas.

Esses movimentos sinalizam uma crescente disposição de detentores de propriedade intelectual em defender legalmente seus ativos contra o que consideram uso abusivo por gigantes da tecnologia. Também demonstram as zonas cinzentas que ainda precisam ser addressadas em relação à intersecção entre leis de copyright e IA avançada.

O complexo debate entre tecnologia e direitos autorais

A contenda judicial iniciada pelo New York Times expõe as complexidades em equilibrar o incentivo à inovação tecnológica e a proteção da propriedade intelectual. Trata-se de um debate essencial, porém repleto de nuances.

De um lado, as leis de direitos autorais precisam ser modernizadas para lidar com os desafios éticos, técnicos e legais trazidos por tecnologias disruptivas como inteligência artificial e machine learning. Caso contrário, corre-se o risco de inibir inovações benéficas à sociedade.

Por outro lado, é preciso coibir usos abusivos do trabalho intelectual alheio que prejudicam autores e prejudicam modelos de negócios de companhias que investem na geração de conteúdo original de qualidade, como o jornalismo profissional.

Encontrar o ponto de equilíbrio ideal entre esses objetivos é uma tarefa desafiadora que exigirá intenso debate público nos próximos anos. A only way de avançar é por meio do diálogo entre empresas de tecnologia, detentores de propriedade intelectual e autoridades governamentais e legislativas.

VEJA: Google oferece 29 Cursos gratuitos em diversas áreas

Acordos de licenciamento são caminho possível

Uma alternativa promissora para equacionar os interesses em jogo é o estabelecimento de acordos formais de licenciamento de propriedade intelectual entre empresas de tecnologia e detentores de direitos autorais.

Sob essa estrutura, companhias desenvolvedoras de aplicações de IA poderiam pagar para usar legalmente conteúdo premium de jornais, revistas, livros e outros materiais protegidos em seus bancos de dados de treinamento.

Isso garantira uma remuneração justa para os criadores do conteúdo licenciado, além de maior segurança jurídica para as big techs, mitigando riscos de processos dispendiosos como o promovido pelo New York Times.

Este modelo de licenciamento já é utilizado em outros contextos envolvendo propriedade intelectual e poderia ser expandido. A chave é promover um ambiente de maior cooperação entre os interessados em perpetuar modelos de negócios inovadores e éticos.

Riscos regulatórios para o setor de IA

O tema dos direitos autorais também tem profundas implicações regulatórias para o setor de inteligência artificial, segundo especialistas. Caso as big techs não avancem para modelos mais éticos de uso de dados exclusivos, o campo pode enfrentar um ambiente regulatório hostil.

Isso poderia envolver restrições rigorosas ou até proibições sobre o uso de determinados tipos de conteúdo protegido no treinamento de sistemas de IA avançados, especialmente aqueles voltados à produção de textos, sons e imagens originais.

Alguns defendem também a introdução de requisitos de transparência sobre a origem dos dados usados no desenvolvimento de aplicações de inteligência artificial, assim como já ocorre em outras áreas, como a de produtos alimentícios.

Em um cenário extremo, poderiam ocorrer até a fragmentação do mercado de IA, com algumas jurisdições restringindo drasticamente seu uso e desenvolvimento.

Por isso, a construção prévia de consensos entre empresas, provedores de conteúdo e policymakers, além da autorregulação responsável, são cruciais para preservar a inovação em IA.

Aprimoramento dos processos de curadoria de dados

Para operar de forma ética e evitar riscos legais, as empresas de tecnologia que atuam com IA precisarão investir fortemente na curadoria aprimorada dos dados usados no desenvolvimento de modelos de aprendizado de máquina.

Isso envolve meticulosos processos de coleta, categorização, limpeza e checagem do conteúdo textual e visual empregado no treinamento dos algoritmos. O objetivo é garantir o respeito aos direitos autorais e evitar replicação de problemas como vieses racistas ou linguajar tóxico.

Além do uso cuidadoso de conteúdo público disponível, também será vital cada vez mais a produção própria ou o licenciamento formal de bancos de dados relevantes e confiáveis. Companhias known por seu capital intelectual de qualidade, como o New York Times, tendem a ser parceiras valiosas.

Investimentos em soluções técnicas como ferramentas de detecção automática de vieses e blockchain para rastreabilidade dos dados também serão diferenciais competitivos para líderes em IA que almejam manter práticas éticas.

Desafios trazidos pela IA generativa

Especialistas alertam que os desafios relacionados a direitos autorais tenderão a se intensificar com o avanço da IA generativa, que usa aprendizado de máquina para produzir conteúdo original, como texto e imagens.

Isso ocorre porque neste campo surge uma questão adicional muito complexa: determinar a autoria e os direitos sobre o material gerado autonomamente por modelos de IA treinados com base em grandes conjuntos de dados proprietários.

Quem detém os direitos autorais sobre um texto criado de forma independente por uma ferramenta como o ChatGPT? O programa, a empresa que o desenvolveu ou os donos do conteúdo usado para treiná-lo? Essas são perguntas que preocupam especialistas em ética de IA e para as quais ainda não há resposta definitiva.

O fato é que a ascensão da IA generativa exigirá debates aprofundados e possivelmente uma reformulação das leis de propriedade intelectual para endereçar nova questões sobre criatividade, autoria e ética na era da inteligência artificial generalizada.

VEJA TAMBÉM: Bank of America: Confira as 3 melhores ações para 2024

Diálogo é chave para equilibrar interesses

Diante do cenário desafiador envolvendo direitos autorais e IA, a construção de consensos será fundamental. E o caminho para isso é o diálogo amplo entre empresas de tecnologia, detentores de propriedade intelectual, academia e governos.

Somente por meio da colaboração entre os diversos atores será possível criar um ambiente de maior cooperação em que os interesses de todos sejam levados em conta.

Do lado das companhias desenvolvedoras de IA, é preciso atuar de boa-fé para informar seus processos e estabelecer acordos justos de remuneração pelo uso de conteúdo exclusivo.

Já os detentores de PI devem sinalizar abertura para autorizar usos éticos de sua criação intelectual, recebendo uma fatia dos ganhos. Os formuladores de políticas, por sua vez, precisam buscar o equilíbrio entre regular para coibir abusos e permitir a continuidade da inovação.

Com paciência, empatia e sabedoria, uma solução benéfica a todos pode emergir nessa nova e delicada era da inteligência artificial.

As informações fornecidas são apenas para fins informativos e educacionais, não constituindo aconselhamento financeiro. Recomenda-se consultar profissionais financeiros antes de tomar decisões de investimento. Não nos responsabilizamos por eventuais perdas decorrentes do uso dessas informações. O desempenho passado não garante resultados futuros.

Clique aqui para entrar em nosso grupo do TELEGRAM

SAIBA MAIS: Guia para iniciantes sobre o Bitcoin

--------------- Continua após a publicidade ---------------

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *