TECNOLOGIA
O que a vitória de Trump pode significar para a regulamentação da IA
Um exaustivo ciclo eleitoral chegou ao fim. Donald Trump será o 47.º presidente dos EUA e, com os republicanos no controlo do Senado – e possivelmente da Câmara – os seus aliados estão preparados para trazer mudanças radicais aos mais altos níveis do governo.
Os efeitos serão sentidos de forma aguda na indústria da IA, que se uniu em grande parte contra a elaboração de políticas federais. Trump disse repetidamente que planeja desmantelar a estrutura política de IA de Biden no “primeiro dia” e alinhou-se com os fazedores de reis que criticaram duramente todas as regulamentações, exceto as mais leves.
A abordagem de Biden
A política de IA de Biden entrou em vigor por meio de ordem executiva, o Ordem Executiva de IAaprovada em outubro de 2023. A inação do Congresso em relação à regulamentação precipitou a ordem executiva, cujos preceitos são voluntários – e não obrigatórios.
O AI EO aborda tudo, desde o avanço da IA na área da saúde até o desenvolvimento de orientações destinadas a mitigar os riscos de roubo de propriedade intelectual. Mas duas das suas disposições mais importantes – que suscitaram a ira de alguns republicanos – dizem respeito aos riscos de segurança da IA e aos impactos na segurança no mundo real.
Uma disposição orienta as empresas que desenvolvem modelos de IA poderosos a reportar ao governo como estão treinando e protegendo esses modelos e a fornecer os resultados de testes projetados para investigar vulnerabilidades de modelos. A outra disposição orienta o Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio a elaborar orientações que ajudem as empresas a identificar – e corrigir – falhas nos modelos, incluindo preconceitos.
O AI EO realizou muito. No ano passado, o Departamento de Comércio criou o US AI Safety Institute (AISI), um órgão para estudar riscos em sistemas de IA, incluindo sistemas com aplicações de defesa. Também lançou novo software para ajudar a melhorar a confiabilidade da IA e testou novos modelos importantes de IA por meio de acordos com OpenAI e Anthropic.
Os críticos aliados de Trump argumentam que os requisitos de reporte do EO são onerosos e efetivamente forçam as empresas a divulgar os seus segredos comerciais. Durante uma audiência na Câmara em março, a deputada Nancy Mace (R-SC) disse que eles “poderiam assustar os possíveis inovadores e impedir mais avanços do tipo ChatGPT”.
Dado que os requisitos se baseiam numa interpretação da Lei de Produção de Defesa, uma lei da década de 1950 para apoiar a defesa nacional, também foram rotulados por alguns republicanos no Congresso como um exemplo de exagero do executivo.
Numa audiência no Senado em Julho, o companheiro de chapa de Trump, JD Vance, expressou preocupações de que “tentativas preventivas de regulamentação excessiva” iriam “fortalecer os titulares de tecnologia que já temos”. Vance também foi solidário antitruste, incluindo esforços da presidente da FTC, Lina Khan, que lidera investigações das aquisições de startups de IA por grandes empresas de tecnologia.
Vários republicanos equipararam o trabalho do NIST sobre IA à censura do discurso conservador. Eles acusam a administração Biden de tentar orientar o desenvolvimento da IA com noções liberais sobre desinformação e preconceito; O senador Ted Cruz (R-TX) criticou recentemente os “padrões de ‘segurança’ da IA despertada” do NIST como um “plano para controlar a fala” baseado em danos sociais “amorfos”.
“Quando eu for reeleito”, disse Trump num comício em Cedar Rapids, Iowa, em dezembro passado, “cancelarei a ordem executiva de inteligência artificial de Biden e proibirei o uso de IA para censurar o discurso dos cidadãos americanos desde o primeiro dia. ”
Substituindo o AI EO
Então, o que poderia substituir o AI EO de Biden?
Pouco se pode extrair das ordens executivas de IA que Trump assinou durante o seu último mandato presidencial, que fundou institutos nacionais de investigação em IA e orientou as agências federais a dar prioridade à I&D em IA. Os seus EOs determinavam que as agências “protegem as liberdades civis, a privacidade e os valores americanos” na aplicação da IA, ajudassem os trabalhadores a adquirir competências relevantes para a IA e promovessem a utilização de tecnologias “confiáveis”.
Durante a sua campanha, Trump prometeu políticas que iriam “apoiar o desenvolvimento da IA enraizado na liberdade de expressão e no florescimento humano” – mas recusou-se a entrar em detalhes.
Alguns republicanos disseram que querem que o NIST se concentre nos riscos de segurança física da IA, incluindo a sua capacidade de ajudar os adversários a construir armas biológicas (que o EO de Biden também aborda). Mas também evitaram endossar novas restrições à IA, o que poderia comprometer partes das orientações do NIST.
Na verdade, o destino do AISI, que está alojado no NIST, é obscuro. Embora tenha um orçamento, diretor e parcerias com institutos de investigação em IA em todo o mundo, o AISI poderia ser extinto com uma simples revogação da OE de Biden.
Em um carta aberta em Outubro, uma coligação de empresas, organizações sem fins lucrativos e universidades apelou ao Congresso para aprovar legislação que codificasse o AISI antes do final do ano.
Trump reconheceu que a IA é “muito perigoso” e que isso exigirá enormes quantidades de poder para desenvolver e funcionar, sugerindo uma vontade de se envolver com os riscos crescentes da IA.
Sendo este o caso, Sarah Kreps, uma cientista política que se concentra na política de defesa dos EUA, não espera que uma grande regulamentação da IA surja da Casa Branca nos próximos quatro anos. “Não sei se as opiniões de Trump sobre a regulamentação da IA atingirão o nível de antipatia que o levará a revogar o Biden AI EO”, disse ela ao TechCrunch.
Regulamentação comercial e estatal
Dean Ball, pesquisador da Universidade George Mason, concorda que a vitória de Trump provavelmente pressagia um regime regulatório leve – um regime que se baseará na aplicação da lei existente em vez da criação de novas leis. No entanto, Ball prevê que isto poderá encorajar os governos estaduais, especialmente em redutos democratas como a Califórnia, a tentar preencher o vazio.
Os esforços liderados pelo Estado estão bem encaminhados. Em março, o Tennessee aprovou uma lei protegendo dubladores da clonagem de IA. Neste verão, Colorado adotado uma abordagem escalonada e baseada em riscos para implantações de IA. E em setembro, o governador da Califórnia, Gavin Newsom, assinou dezenas de projetos de lei de segurança relacionados à IA, alguns dos quais exigem que as empresas publiquem detalhes sobre seus Treinamento de IA.
Os formuladores de políticas estaduais têm introduzido perto de 700 peças legislativas sobre IA só este ano.
“Não está claro como o governo federal responderá a esses desafios”, disse Ball.
Hamid Ekbia, professor da Universidade de Syracuse que estuda assuntos públicos, acredita que as políticas protecionistas de Trump podem ter implicações regulatórias na IA. Ele espera que a administração Trump imponha controlos de exportação mais rigorosos à China, por exemplo – incluindo controlos sobre as tecnologias necessárias para o desenvolvimento da IA.
A administração Biden já implementou uma série de proibições à exportação de chips e modelos de IA. No entanto, algumas empresas chinesas estão supostamente usando brechas para acessar as ferramentas por meio de serviços em nuvem.
“A regulamentação global da IA sofrerá como consequência [of new controls]apesar das circunstâncias que exigem mais cooperação global”, disse Ekbia. “As ramificações políticas e geopolíticas disto podem ser enormes, permitindo usos mais autoritários e opressivos da IA em todo o mundo.”
Se Trump promulgar tarifas sobre a tecnologia necessária para construir IA, isso também poderá espremer o capital necessário para financiar a I&D de IA, diz Matt Mittelsteadt, outro investigador da Universidade George Mason. Durante a sua campanha, Trump propôs uma tarifa de 10% sobre todas as importações dos EUA e de 60% sobre os produtos fabricados na China.
“Talvez o maior impacto venha das políticas comerciais”, disse Mittelsteadt. “Espere que quaisquer tarifas potenciais tenham um enorme impacto económico no sector da IA.”
Claro, é cedo. E embora Trump tenha evitado na maior parte abordar a IA durante a campanha, grande parte da sua plataforma – como o seu plano de restringir os vistos H-1B e abraçar o petróleo e o gás – poderia ter efeitos a jusante na indústria da IA.
Sandra Wachter, professora de ética de dados no Oxford Internet Institute, instou os reguladores, independentemente das suas filiações políticas, a não perderem de vista os perigos da IA pelas suas oportunidades.
“Esses riscos existem independentemente de onde você se encontra no espectro político”, disse ela. “Esses malefícios não acreditam na geografia e não se importam com as linhas partidárias. Só posso esperar que a governação da IA não seja reduzida a uma questão partidária — é uma questão que afecta todos nós, em todo o lado. Todos temos que trabalhar juntos para encontrar boas soluções globais.”
TechCrunch tem um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo em sua caixa de entrada todas as quartas-feiras.
Fonte: techcrunch.com
TECNOLOGIA
Vision Pro da Apple pode adicionar suporte para controladores PlayStation VR
A Apple está procurando tornar seu dispositivo de realidade mista Vision Pro mais atraente para jogadores e desenvolvedores de jogos, de acordo com um novo relatório de Mark Gurman da Bloomberg.
O Vision Pro foi apresentado como mais um dispositivo de produtividade e consumo de mídia do que algo voltado para jogadores, em parte devido à dependência de controles oculares e manuais em vez de incorporar um controlador separado.
Mas a Apple pode precisar de jogadores se quiser expandir o público do Vision Pro, especialmente porque Gurman relata que menos de meio milhão de unidades foram vendidas até agora. Portanto, a empresa tem conversado com a Sony sobre a adição de suporte para os controladores manuais do PlayStation VR2, ao mesmo tempo que conversa com os desenvolvedores sobre se eles suportariam os controladores em seus jogos.
Ao oferecer um controle mais preciso, a Apple também poderia tornar outros tipos de software, como Final Cut Pro ou Adobe Photoshop, utilizáveis no Vision Pro.
Fonte: techcrunch.com
TECNOLOGIA
UCLA oferece curso completo desenvolvido pela AI
No inverno de 2025, uma aula de literatura comparada na UCLA apresentará um livro didático, tarefas de casa e recursos de AT gerados por IA.
A aula em questão é um levantamento da literatura desde a Idade Média até o século XVII, enquanto os materiais são gerados por Kudu – uma plataforma de livros didáticos “evoluída” fundada por Alexander Kusenko, professor de física e astronomia na UCLA. A universidade diz esta será a primeira turma da divisão de humanidades com materiais desenvolvidos pela Kudu.
Para criar esses materiais, a professora Zrinka Stahuljak forneceu a Kudu notas, apresentações em PowerPoint e vídeos do YouTube de suas versões anteriores da aula. O processo de criação do curso pode levar de três a quatro meses, mas a UCLA diz que o tempo dedicado aos professores deve ser limitado a 20 horas (e Kudu os compensa pelo seu tempo).
Stahuljak disse que esta abordagem deveria liberar tempo para ela e seus TAs trabalharem mais estreitamente com os alunos e também garantir uma entrega mais consistente dos materiais do curso. Os alunos também podem fazer perguntas ao Kudu sobre o material, com respostas extraídas apenas do material fornecido pelo professor, e não da Internet em geral.
Fonte: techcrunch.com
TECNOLOGIA
Apple processou por abandonar a detecção de CSAM para iCloud
A Apple está sendo processada por sua decisão de não implementar um sistema que digitalizaria fotos do iCloud em busca de material de abuso sexual infantil (CSAM).
O processo argumenta que, ao não fazer mais para impedir a propagação deste material, está a forçar as vítimas a reviver o seu trauma, de acordo com o The New York Times. O processo descreve a Apple como anunciando “um design melhorado amplamente elogiado destinado a proteger as crianças”, e depois falhando em “implementar esses designs ou tomar quaisquer medidas para detectar e limitar” este material.
A Apple anunciou o sistema pela primeira vez em 2021, explicando que seria usar assinaturas digitais do Centro Nacional para Crianças Desaparecidas e Exploradas e outros grupos para detectar conteúdo CSAM conhecido nas bibliotecas iCloud dos usuários. No entanto, pareceu abandonar esses planos depois que os defensores da segurança e da privacidade sugeriram que poderiam criar uma porta dos fundos para a vigilância governamental.
O processo supostamente vem de uma mulher de 27 anos que está processando a Apple sob um pseudônimo. Ela disse que um parente a molestou quando ela era criança e compartilhou imagens dela online, e que ainda recebe avisos das autoridades quase todos os dias sobre alguém sendo acusado de possuir essas imagens.
O advogado James Marsh, que está envolvido no processo, disse que há um grupo potencial de 2.680 vítimas que poderiam ter direito a indenização neste caso.
O TechCrunch entrou em contato com a Apple para comentar. Um porta-voz da empresa disse ao The Times que a empresa está “inovando urgente e ativamente para combater esses crimes sem comprometer a segurança e a privacidade de todos os nossos usuários”.
Em agosto, uma menina de 9 anos e seu tutor processaram a Appleacusando a empresa de não abordar o CSAM no iCloud.
Fonte: techcrunch.com
-
TECNOLOGIA2 semanas ago
As recapitulações de 2024 do YouTube Music foram lançadas – veja como ver as suas
-
TECNOLOGIA2 semanas ago
Fintech da América Latina será um mercado a ser observado em 2025
-
TECNOLOGIA2 semanas ago
Sora da OpenAI parece ter vazado
-
TECNOLOGIA2 semanas ago
Perplexidade pondera entrar no hardware
-
GAMES1 semana ago
Eventos Pokémon Go de dezembro de 2024: incursões, horários de destaque, dia da comunidade e muito mais
-
FILMES2 semanas ago
O melhor desempenho de Greta Gerwig sai da Netflix em uma semana
-
SÉRIES1 semana ago
Estrelas de ‘RHOSLC’ mostram apoio a Mary Cosby e seu filho depois que seu vício em drogas é revelado
-
TECNOLOGIA2 semanas ago
Uber está construindo uma frota de trabalhadores para rotular dados para modelos de IA