Conecte-se com a gente!

TECNOLOGIA

Esta semana em IA: Podemos confiar que o DeepMind será ético?

Acompanhar uma indústria tão veloz quanto IA é uma tarefa difícil. Então, até que uma IA possa fazer isso por você, aqui está um resumo útil de histórias recentes no mundo do aprendizado de máquina, junto com pesquisas e experimentos notáveis ​​que não abordamos por conta própria.

Esta semana, em IA, DeepMind, o laboratório de P&D de IA de propriedade do Google, lançou um papel propor um quadro para avaliar os riscos sociais e éticos dos sistemas de IA.

O momento do artigo – que exige níveis variados de envolvimento de desenvolvedores de IA, desenvolvedores de aplicativos e “intervenientes públicos mais amplos” na avaliação e auditoria da IA ​​– não é acidental.

Na próxima semana acontecerá o AI Safety Summit, um evento patrocinado pelo governo do Reino Unido que reunirá governos internacionais, empresas líderes de IA, grupos da sociedade civil e especialistas em pesquisa para se concentrar na melhor forma de gerenciar os riscos dos avanços mais recentes em IA. incluindo IA generativa (por exemplo, ChatGPT, Difusão Estável e assim por diante). Lá, o Reino Unido é planejamento introduzir um grupo consultivo global sobre IA, inspirado no Painel Intergovernamental sobre Alterações Climáticas da ONU, composto por um elenco rotativo de académicos que escreverão relatórios regulares sobre desenvolvimentos de ponta em IA — e os perigos associados.

A DeepMind está expondo sua perspectiva, de forma muito visível, antes das negociações políticas locais na cúpula de dois dias. E, para dar crédito a quem merece, o laboratório de investigação apresenta alguns pontos razoáveis ​​(embora óbvios), tais como apelar a abordagens para examinar os sistemas de IA no “ponto de interacção humana” e as formas como estes sistemas podem ser utilizados e inserido na sociedade.

Gráfico mostrando quais pessoas seriam melhores em avaliar quais aspectos da IA.

Mas, ao avaliar as propostas da DeepMind, é informativo observar a pontuação da empresa controladora do laboratório, o Google, em um estudo recente. estudar divulgado por pesquisadores de Stanford que classifica dez principais modelos de IA de acordo com a abertura com que operam.

Avaliado com base em 100 critérios, incluindo se seu fabricante divulgou as fontes de seus dados de treinamento, informações sobre o hardware usado, o trabalho envolvido no treinamento e outros detalhes, o PaLM 2, um dos principais modelos de IA de análise de texto do Google, obteve apenas 40 pontos. %.

Agora, a DeepMind não desenvolveu o PaLM 2 – pelo menos não diretamente. Mas o laboratório não tem sido historicamente consistentemente transparente sobre os seus próprios modelos, e o facto de a sua empresa-mãe não cumprir as principais medidas de transparência sugere que não há muita pressão de cima para baixo para que a DeepMind faça melhor.

Por outro lado, além das suas reflexões públicas sobre políticas, a DeepMind parece estar a tomar medidas para mudar a percepção de que é calada sobre as arquitecturas e o funcionamento interno dos seus modelos. O laboratório, junto com OpenAI e Anthropic, empenhado há vários meses, para fornecer ao governo do Reino Unido “acesso antecipado ou prioritário” aos seus modelos de IA para apoiar a investigação em avaliação e segurança.

A questão é: isso é meramente performativo? Afinal, ninguém acusaria DeepMind de filantropia – o laboratório arrecada centenas de milhões de dólares em receita a cada ano, principalmente licenciando seu trabalho internamente para equipes do Google.

Talvez o próximo grande teste de ética do laboratório seja Gêmeos, seu próximo chatbot de IA, que o CEO da DeepMind, Demis Hassabis, prometeu repetidamente que rivalizará com o ChatGPT da OpenAI em suas capacidades. Caso a DeepMind deseje ser levada a sério na frente da ética da IA, ela terá que detalhar completa e minuciosamente os pontos fracos e limitações do Gemini – não apenas seus pontos fortes. Certamente estaremos observando de perto para ver como as coisas vão se desenrolar nos próximos meses.

Aqui estão algumas outras histórias dignas de nota sobre IA dos últimos dias:

  • Estudo da Microsoft encontra falhas no GPT-4: Um novo artigo científico afiliado à Microsoft analisou a “confiabilidade” – e a toxicidade – de grandes modelos de linguagem (LLMs), incluindo OpenAI’s GPT-4. Os coautores descobriram que uma versão anterior do GPT-4 pode ser mais facilmente solicitada do que outros LLMs a divulgar texto tóxico e tendencioso. Caramba.
  • ChatGPT obtém pesquisa na web e DALL-E 3: Falando em OpenAI, a empresa formalmente lançado seu recurso de navegação na Internet para ChatGPT, alguns três semanas após a reintrodução do recurso em beta após vários meses de hiato. Em notícias relacionadas, a OpenAI também fez a transição do DALL-E 3 para beta, um mês depois de lançar a última encarnação do gerador de texto para imagem.
  • Desafiadores do GPT-4V: A OpenAI está preparada para lançar o GPT-4V, uma variante do GPT-4 que entende imagens e também texto, em breve. Mas duas alternativas de código aberto venceram: LLaVA-1.5 e Fuyu-8B, um modelo da startup bem financiada Adept. Nenhum deles é tão capaz quanto o GPT-4V, mas ambos chegam perto – e o mais importante, são de uso gratuito.
  • A IA pode jogar Pokémon?: Nos últimos anos, um engenheiro de software baseado em Seattle Peter Whidden vem treinando um algoritmo de aprendizado por reforço para navegar no clássico primeiro jogo da série Pokémon. No momento, chega apenas a Cerulean City – mas Whidden está confiante de que continuará a melhorar.
  • Tutor de idiomas com tecnologia de IA: O Google está apostando no Duolingo com um novo recurso de Pesquisa do Google projetado para ajudar as pessoas a praticar – e melhorar – suas habilidades de falar inglês. Lançado nos próximos dias em dispositivos Android em países selecionados, o novo recurso fornecerá prática interativa de conversação para alunos de idiomas que traduzem de ou para o inglês.
  • Amazon lança mais robôs de armazém: Em um evento esta semana, a Amazon anunciado que começará a testar o robô bípede da Agility, Digit, em suas instalações. Lendo nas entrelinhas, porém, não há garantia de que a Amazon realmente começará a implantar o Digit em seus armazéns, que atualmente utilizam mais de 750.000 sistemas robóticos, escreve Brian.
  • Simuladores após simuladores: Na mesma semana, a Nvidia demonstrou a aplicação de um LLM para ajudar a escrever código de aprendizado por reforço para guiar um robô ingênuo orientado por IA a executar melhor uma tarefa, a Meta lançou o Habitat 3.0. A versão mais recente do conjunto de dados do Meta para treinar agentes de IA em ambientes internos realistas. O Habitat 3.0 adiciona a possibilidade de avatares humanos compartilharem o espaço em VR.
  • Os titãs da tecnologia da China investem no rival OpenAI: Zhipu AI, uma startup com sede na China que desenvolve modelos de IA para rivalizar com OpenAI e outros no espaço de IA generativa, anunciado esta semana que arrecadou 2,5 bilhões de yuans (US$ 340 milhões) em financiamento total até o momento este ano. O anúncio ocorre em meio a tensões geopolíticas entre os EUA e a China construir – e não mostra sinais de acalmar-se.
  • Os EUA sufocam o fornecimento de chips de IA da China: Sobre o tema das tensões geopolíticas, a administração Biden anunciou esta semana uma série de medidas para conter as ambições militares de Pequim, incluindo uma restrição adicional aos envios de chips de IA da Nvidia para a China. A800 e H800, os dois chips de IA que a Nvidia projetou especificamente para continuar sendo enviados para a China, será atingido pela nova rodada de novas regras.
  • As reprises de músicas pop da IA ​​se tornam virais: Amanda cobre uma tendência curiosa: Contas TikTok que usam IA para fazer personagens como Homer Simpson cantarem músicas de rock dos anos 90 e 2000, como “Cheira a espírito adolescente.” Eles são divertidos e bobos aparentemente, mas há um tom sombrio em toda a prática, escreve Amanda.

Mais aprendizados de máquina

Os modelos de aprendizado de máquina levam constantemente a avanços nas ciências biológicas. AlphaFold e RoseTTAFold foram exemplos de como um problema teimoso (dobramento de proteínas) poderia ser, na verdade, banalizado pelo modelo de IA correto. Agora David Baker (criador deste último modelo) e os seus colegas de laboratório expandiram o processo de previsão para incluir mais do que apenas a estrutura das cadeias relevantes de aminoácidos. Afinal, as proteínas existem numa sopa de outras moléculas e átomos, e prever como irão interagir com compostos ou elementos dispersos no corpo é essencial para compreender a sua forma e actividade reais. RoseTTAFold All-Atom é um grande passo em frente na simulação de sistemas biológicos.

Créditos da imagem: MIT/Universidade de Harvard

Ter uma IA visual que melhore o trabalho de laboratório ou atue como uma ferramenta de aprendizagem também é uma grande oportunidade. O projeto SmartEM do MIT e Harvard coloque um sistema de visão computacional e um sistema de controle de ML dentro de um microscópio eletrônico de varredura, que juntos conduzem o dispositivo para examinar uma amostra de forma inteligente. Ele pode evitar áreas de baixa importância, focar em áreas interessantes ou claras e também fazer uma rotulagem inteligente da imagem resultante.

Usar IA e outras ferramentas de alta tecnologia para fins arqueológicos nunca envelhece (se você quiser) para mim. Seja lidar revelando cidades e rodovias maias ou preenchendo as lacunas de textos gregos antigos incompletos, é sempre legal ver. E esta reconstrução de um pergaminho que se pensava ter sido destruído na erupção vulcânica que destruiu Pompeia é uma das mais impressionantes até agora.

Tomografia computadorizada interpretada por ML de um papiro enrolado e queimado. A palavra visível diz “Roxo”.

Luke Farritor, aluno de CS da Universidade de Nebraska-Lincoln, treinou um modelo de aprendizado de máquina para amplificar os padrões sutis nas digitalizações do papiro enrolado e carbonizado que são invisíveis a olho nu. Seu foi um dos muitos métodos tentados em um desafio internacional para ler os pergaminhos, e poderia ser refinado para realizar trabalhos acadêmicos valiosos. Muito mais informações na Nature aqui. O que estava no pergaminho, você pergunta? Até agora, apenas a palavra “roxo” – mas mesmo isso fez os papirologistas enlouquecerem.

Outra vitória acadêmica da IA ​​está em este sistema para verificar e sugerir citações na Wikipedia. É claro que a IA não sabe o que é verdadeiro ou factual, mas pode extrair do contexto a aparência de um artigo e uma citação da Wikipédia de alta qualidade e vasculhar o site e a web em busca de alternativas. Ninguém está sugerindo que deixemos os robôs executarem a famosa enciclopédia online dirigida aos usuários, mas isso poderia ajudar a reforçar artigos para os quais faltam citações ou os editores não têm certeza.

Exemplo de um problema matemático sendo resolvido pelo Llemma.

Os modelos de linguagem podem ser ajustados em muitos tópicos, e a matemática superior é surpreendentemente um deles. Llemma é um novo modelo aberto treinado em provas matemáticas e artigos que podem resolver problemas bastante complexos. Não é o primeiro – Minerva, do Google Research, está trabalhando em capacidades semelhantes – mas seu sucesso em conjuntos de problemas semelhantes e maior eficiência mostram que modelos “abertos” (seja qual for o valor do termo) são competitivos neste espaço. Não é desejável que certos tipos de IA sejam dominados por modelos privados, pelo que a replicação das suas capacidades abertamente é valiosa, mesmo que não abra novos caminhos.

É preocupante que Meta esteja progredindo em seu próprio trabalho acadêmico no sentido da leitura de mentes – mas, como acontece com a maioria dos estudos nesta área, a forma como é apresentada exagera o processo. Em um artigo chamado “Decodificação cerebral: Rumo à reconstrução em tempo real da percepção visual”, pode parecer que eles estão lendo mentes.

Imagens mostradas às pessoas, à esquerda, e a IA generativa adivinha o que a pessoa está percebendo, à direita.

Mas é um pouco mais indireto do que isso. Ao estudar a aparência de uma tomografia cerebral de alta frequência quando as pessoas observam imagens de certas coisas, como cavalos ou aviões, os pesquisadores são capazes de realizar reconstruções quase em tempo real do que eles acham que a pessoa está pensando ou olhando. . Ainda assim, parece provável que a IA generativa tenha um papel a desempenhar aqui, na forma como pode criar uma expressão visual de algo, mesmo que não corresponda diretamente às digitalizações.

Deve estaremos usando IA para ler a mente das pessoas, se isso for possível? Pergunte ao DeepMind – veja acima.

Por último, um projeto no LAION que é mais aspiracional do que concreto neste momento, mas mesmo assim louvável. A Aprendizagem Contrastiva Multilíngue para Aquisição de Representação de Áudio, ou CLARA, visa dar aos modelos de linguagem uma melhor compreensão das nuances da fala humana. Você sabe como pode captar o sarcasmo ou uma mentira a partir de sinais subverbais, como tom ou pronúncia? As máquinas são muito ruins nisso, o que é uma má notícia para qualquer interação humano-IA. CLARA utiliza uma biblioteca de áudio e texto em vários idiomas para identificar alguns estados emocionais e outras pistas não-verbais de “compreensão da fala”.

Fonte: techcrunch.com

Continue lendo
Clique para comentar

Deixe sua resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

TECNOLOGIA

O recurso de geração de imagem do ChatGPT recebe um upgrade

Durante uma transmissão ao vivo na terça -feira, o CEO da Openai, Sam Altman, anunciou a primeira grande atualização para Chatgpt's recursos de geração de imagem em mais de um ano.

ChatGPT agora pode alavancar a empresa GPT-4O Modelo para criar e modificar imagens e fotos nativamente. O GPT-4O há muito sustentou a plataforma ChatBot de IA, mas até agora o modelo conseguiu gerar e editar apenas texto-não imagens.

Altman disse que a geração de imagens nativas do GPT-4O está ao vivo hoje em ChatGPT e Sora, o produto de geração de vídeo da AI da OpenAI, para assinantes do plano Pro de US $ 200 por mês da empresa. O Openai diz que o recurso está lançado em breve para usuários mais e gratuitos do ChatGPT, bem como desenvolvedores usando o serviço API da empresa.

GPT-4O com saída de imagem “pensa” um pouco mais do que o modelo de geração de imagem que ele substitui efetivamente, Dall-e 3para tornar o que o OpenAI descreve como imagens mais precisas e detalhadas. O GPT-4O pode editar imagens existentes, incluindo imagens com pessoas nelas-transformando-as ou “pintar detalhes”, como primeiro plano e objetos de fundo.

Para alimentar o novo recurso de imagem, o OpenAI disse ao Wall Street Journal Ele treinou o GPT-4O em “dados publicamente disponíveis”, bem como dados proprietários de suas parcerias com empresas como a Shutterstock.

Muitos fornecedores de IA generativos veem os dados de treinamento como uma vantagem competitiva, para que eles o mantenham e qualquer informação relacionada a eles perto do baú. Mas os detalhes dos dados de treinamento também são uma fonte potencial de ações relacionadas a IP, outro desincentivo para as empresas revelarem muito.

“Estamos respeitando os direitos dos artistas em termos de como realizamos a produção, e temos políticas que nos impedem de gerar imagens que imitam diretamente o trabalho de qualquer artista vivo”, disse Brad Lightcap, diretor de operações da OpenAI, em comunicado à revista.

O OpenAI oferece um formulário de exclusão que permite aos criadores solicitar que seus trabalhos sejam removidos de seus conjuntos de dados de treinamento. A empresa também diz que respeita os pedidos para proibir seus bots de arranhar na Web de coletar dados de treinamento, incluindo imagens, de sites.

O recurso de geração de imagem atualizado do ChatGPT segue os calcanhares da saída de imagem nativa experimental do Google para o Gemini 2.0 Flash, um dos principais modelos da empresa. A característica poderosa se tornou viral nas mídias sociais – mas não necessariamente pelas melhores razões. O componente de imagem de Gemini 2.0 Flash acabou por ter poucos corrimãospermitindo que as pessoas removam marcas d'água e criem imagens que representam personagens protegidos por direitos autorais.

Este artigo foi atualizado às 12h do PT para incluir a declaração do Openai ao Wall Street Journal, nos dados de treinamento do GPT-4O.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

Leia o email Jack Dorsey enviado quando ele cortar 931 da equipe de Block

O Fintech Block demitiu 931 pessoas, aproximadamente 8% da equipe da empresa, na terça -feira, de acordo com uma mensagem vazada da empresa vista pela TechCrunch.

A notícia foi anunciada aos funcionários em um e-mail do co-fundador e CEO da Block, Jack Dorsey. Dorsey disse à equipe que, na terça -feira, o Block estará “fazendo algumas alterações na organização, incluindo a eliminação de funções e inicia o processo de consulta em países quando necessário”.

Essas são as mudanças mais recentes para atingir o bloco, a gigante de serviços financeiros de Dorsey, que possui Cash App e Square. A empresa fornece serviços de pagamentos móveis para os consumidores, bem como hardware e software no ponto de venda para empresas.

No e -mail, Dorsey explicou que o bloco está cortando papéis em três baldes amplos. A primeira ele lista são 391 pessoas sendo cortadas por razões de “estratégia”.

O segundo e maior balde, 460 pessoas, é por razões de “desempenho”, com Dorsey explicando que o Block está demitindo funcionários que obtêm uma classificação “abaixo” nas métricas de rastreamento de desempenho interno da empresa ou estavam tendendo a ele.

O terceiro balde são os gerentes, 80 dos quais estão sendo cortados para achatar a hierarquia de Block para “Innercore+4”, que se refere aos relatórios diretos de Dorsey e, em seguida, quatro níveis de relatórios diretos além disso, de acordo com uma fonte familiar. Dorsey também disse que 193 gerentes estão sendo transferidos para funções de colaboradores individuais.

O e -mail de Dorsey nega que as demissões sejam por razões financeiras ou para substituir os trabalhadores pela IA. Em vez disso, ele disse que o bloco está cortando os papéis devido à mudança de necessidades estratégicas ao “elevar o bar e agir mais rápido no desempenho”.

Dorsey também observou que o bloco está fechando 748 papéis abertos na empresa, com exceção daqueles que progrediram para um estágio de oferta, funções de operações críticas e papéis importantes de liderança, entre outros.

Bloquear último passou por grandes demissões em janeiro de 2024quando cortou cerca de 1.000 funções. Em dezembro de 2024, a roupa tinha cerca de 11.300 membros da equipe em todo o mundo, de acordo com o O mais recente arquivamento de 10k da empresa.

Block não respondeu imediatamente a um pedido de comentário.

Abaixo está o e -mail inteiro que Dorsey enviou para bloquear os funcionários na terça -feira. A gramática e o formato deste texto foram modificados ligeiramente para proteger as fontes que o compartilharam com o TechCrunch. O e -mail segue -se:

olá a todos.

Hoje faremos algumas alterações de organização, incluindo eliminar funções e iniciar o processo de consulta em países onde necessário. Eu quero lhe dar todos os fatos retos.

Como eu disse no último bloco, há três áreas que gostaríamos de abordar:

  • Estratégia: reduzindo de equipes que estão fora da estratégia e corrigindo nossos índices de disciplina.
  • Desempenho: se separando com pessoas com um “abaixo” ou tendendo a “abaixo”.
  • Hierarquia: dirigindo para achatar nossa organização a uma profundidade máxima de Innercore+4

O que isso se traduz em um número real de pessoas:

  • Hierarquia: 80 gerentes (com 193 funções de colaboradores individuais em movimento)

Também estamos fechando todos os 748 papéis que tivemos aberto, com exceção de:

  • As funções progrediram para oferecer estágio.
  • funções operacionais críticas

Nenhum dos pontos acima está tentando atingir uma meta financeira específica, substituindo as pessoas por IA ou mudando nosso limite de funcionários. Eles são específicos para nossas necessidades em torno da estratégia, elevando o bar e agindo mais rapidamente no desempenho e achatando nossa organização para que possamos nos mover mais rápido e com menos abstração.

Por que tudo isso de uma vez em vez de com o tempo? Estamos atrasados ​​em nossas ações, e isso não é justo para os indivíduos que trabalham aqui ou com a empresa. Quando sabemos, devemos nos mover, e não houve movimento suficiente. Precisamos nos mudar para nos ajudar a nos encontrar e ficar à frente do momento de transformação em que nossa indústria está.

Esta é a parte mais difícil do meu trabalho, e eu luto muito contra qualquer uma dessas considerações. Devemos ter uma barra de correção muito alta para tomarmos qualquer ação, o que leva a iteração e o tempo para acertar. Eu sempre equilibro isso com o fato de que todos aqui, e aqueles que estão partindo, têm patrimônio em nossa empresa. É meu trabalho aumentar esse valor. Acreditamos que isso nos ajudará a focar e executar melhor para fazer exatamente isso.

Estamos trabalhando para dar clareza a todos o mais rápido possível, com o máximo de contexto e apoio possível. Você receberá um e -mail em breve sobre o que isso significa para você. Se houver áreas em que você acha que poderíamos fazer melhor, envie -me uma nota. O feedback direto nos torna melhores, e eu sempre age quando faz sentido.

Obrigado a todos aqueles que nos deixam. Sou grato e agradecido por você e seu trabalho, o que nos construiu até este ponto. Continuaremos a honrar isso aumentando nosso valor para nossos clientes e, portanto, para todos os nossos acionistas, incluindo você.

obrigado,

Jack

Esta história foi atualizada às 16h28 na terça -feira para incluir o email completo anunciando as demissões.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

Lemos o email Jack Dorsey enviado quando ele cortou 931 da equipe de Block

O Fintech Block demitiu 931 pessoas na terça -feira, de acordo com uma mensagem vazada da empresa vista pela TechCrunch.

A notícia foi anunciada aos funcionários em um e-mail do co-fundador e CEO da Block, Jack Dorsey. Dorsey disse à equipe que, na terça -feira, o Block estará “fazendo algumas alterações na organização, incluindo a eliminação de funções e inicia o processo de consulta em países quando necessário”.

Essas são as mudanças mais recentes para atingir o bloco, a gigante de serviços financeiros de Dorsey, que possui Cash App e Square. A empresa fornece serviços de pagamentos móveis para os consumidores, bem como hardware e software no ponto de venda para empresas.

No e -mail, Dorsey explicou que o bloco está cortando papéis em três baldes amplos. A primeira ele lista são 391 pessoas sendo cortadas por razões de “estratégia”.

O segundo e maior balde, 460 pessoas, é por razões de “performance”, com Dorsey explicando que o bloco está “se separando com as pessoas” que marcam uma classificação “abaixo” ou “tendências para baixo”.

O terceiro balde são os gerentes, 80 dos quais estão sendo cortados para achatar a hierarquia de Block. Dorsey também disse que 193 gerentes estão sendo transferidos para funções de colaboradores individuais.

O e -mail de Dorsey nega que as demissões sejam por razões financeiras ou para substituir os trabalhadores pela IA. Especificamente, Dorsey escreveu que “nenhuma das opções acima [cuts] estão tentando atingir uma meta financeira específica, substituindo as pessoas por IA ou mudando nosso limite de funcionários. ”

Em vez disso, ele disse que o bloco está cortando os papéis devido à mudança de necessidades estratégicas ao “elevar o bar e agir mais rápido no desempenho”.

Dorsey também observou que o bloco está fechando “todos” papéis abertos 748 na empresa, com exceção daqueles que progrediram para um estágio de oferta, funções de operações críticas, papéis de liderança -chave e outros.

Bloquear último passou por grandes demissões em janeiro de 2024quando cortou cerca de 1.000 funções. Antes de terça -feira demissõesa roupa tinha cerca de 12.000 funcionários, de acordo com uma fonte familiarizada com o assunto.

Block não respondeu imediatamente a um pedido de comentário.

Esta é uma história em desenvolvimento. Volte para atualizações.

Fonte: techcrunch.com

Continue lendo

Top

Social Media Auto Publish Powered By : XYZScripts.com