Conecte-se com a gente!

TECNOLOGIA

O Vale do Silício sufocou o movimento de destruição da IA ​​em 2024

Há vários anos, os tecnólogos tocam alarmes sobre o potencial dos sistemas avançados de IA causarem danos catastróficos à raça humana.

Mas em 2024, esses apelos de alerta foram abafados por uma visão prática e próspera de IA generativa promovida pela indústria tecnológica – uma visão que também beneficiou as suas carteiras.

Aqueles que alertam sobre o risco catastrófico da IA ​​são frequentemente chamados de “destruidores da IA”, embora não seja um nome que lhes agrade. Eles estão preocupados que os sistemas de IA tomem decisões para matar pessoas, sejam usados ​​pelos poderosos para oprimir as massas ou contribuam para a queda da sociedade de uma forma ou de outra.

Em 2023, parecia que estávamos no início de uma era de renascimento da regulamentação tecnológica. A desgraça da IA ​​e a segurança da IA ​​– um assunto mais amplo que pode abranger alucinações, moderação insuficiente de conteúdo e outras maneiras pelas quais a IA pode prejudicar a sociedade – passou de um tópico de nicho discutido nas cafeterias de São Francisco para uma conversa que aparece na MSNBC, CNN e nas primeiras páginas do New York Times.

Resumindo os alertas emitidos em 2023: Elon Musk e mais de 1.000 tecnólogos e cientistas pediram uma pausa no desenvolvimento de IApedindo ao mundo que se prepare para os profundos riscos da tecnologia. Pouco depois, os principais cientistas da OpenAI, Google e outros laboratórios assinaram uma carta aberta dizendo o risco de a IA causar a extinção humana deveria receber mais crédito. Meses depois, o presidente Biden assinou uma ordem executiva de IA com um objetivo geral para proteger os americanos dos sistemas de IA. Em novembro de 2023, o conselho sem fins lucrativos por trás do desenvolvedor líder mundial de IA, OpenAI, demitiu Sam Altman, alegando que seu CEO tinha reputação de mentir e não poderia ser confiada uma tecnologia tão importante como a inteligência artificial geral, ou AGI – que já foi o ponto final imaginado da IA, ou seja, sistemas que realmente mostram autoconsciência. (Embora o a definição agora está mudando para atender às necessidades de negócios daqueles que falam sobre isso.)

Por um momento, parecia que os sonhos dos empresários de Silicon Valley ficariam em segundo plano em relação à saúde geral da sociedade.

Mas para esses empreendedores, a narrativa em torno da destruição da IA ​​era mais preocupante do que os próprios modelos de IA.

Em resposta, o cofundador da a16z, Marc Andreessen, publicou “Por que a IA salvará o mundo”em junho de 2023, um ensaio de 7.000 palavras desmantelando a agenda dos destruidores da IA ​​​​e apresentando uma visão mais otimista de como a tecnologia irá funcionar.

SAN FRANCISCO, CA – 13 DE SETEMBRO: O empresário Marc Andreessen fala no palco durante o TechCrunch Disrupt SF 2016 no Pier 48 em 13 de setembro de 2016 em São Francisco, Califórnia. (Foto de Steve Jennings/Getty Images para TechCrunch)Créditos da imagem:Steve Jennings/Getty Images

“A era da Inteligência Artificial chegou e, cara, as pessoas estão pirando. Felizmente, estou aqui para trazer a boa notícia: a IA não destruirá o mundo e, na verdade, poderá salvá-lo”, disse Andreessen no ensaio.

Na sua conclusão, Andreessen deu uma solução conveniente para os nossos medos da IA: agir rapidamente e quebrar coisas – basicamente a mesma ideologia que definiu todas as outras tecnologias do século XXI (e os problemas que as acompanham). Ele argumentou que as grandes empresas de tecnologia e startups deveriam ter permissão para construir IA da maneira mais rápida e agressiva possível, com poucas ou nenhuma barreira regulatória. Isto garantiria que a IA não caísse nas mãos de algumas empresas ou governos poderosos e permitiria aos Estados Unidos competir eficazmente com a China, disse ele.

Claro, isso também permitiria que muitas startups de IA da a16z ganhassem muito mais dinheiro – e algumas achou seu tecno-otimismo rude numa era de extrema disparidade de rendimentos, pandemias e crises imobiliárias.

Embora Andreessen nem sempre concorde com a Big Tech, ganhar dinheiro é uma área em que toda a indústria pode concordar. Os cofundadores da a16z escreveram uma carta ao CEO da Microsoft, Satya Nadella, este ano, essencialmente pedindo ao governo que não regulamente a indústria de IA de forma alguma.

Entretanto, apesar dos acenos frenéticos em 2023, Musk e outros tecnólogos não pararam de abrandar para se concentrarem na segurança em 2024 – muito pelo contrário: O investimento em IA em 2024 superou qualquer coisa já vimos antes. Altman rapidamente retornou ao comando da OpenAI, e um uma massa de pesquisadores de segurança deixou a unidade em 2024 enquanto tocava o alarme sobre sua cultura de segurança cada vez menor.

A ordem executiva de IA focada na segurança de Biden caiu em grande parte em desuso este ano em Washington, DC – anunciou o novo presidente eleito, Donald Trump planeja revogar a ordem de Bidenargumentando que isso dificulta a inovação da IA. Andreessen diz que tem estado aconselhando Trump sobre IA e tecnologia nos últimos meses, e um capitalista de risco de longa data na a16z, Sriram Krishnané agora o conselheiro sênior oficial de Trump em IA.

Os republicanos em Washington têm várias prioridades relacionadas com a IA que ultrapassam hoje a destruição da IA, de acordo com Dean Ball, investigador especializado em IA do Mercatus Center da Universidade George Mason. Isso inclui a construção de data centers para alimentar a IA, o uso da IA ​​no governo e nas forças armadas, a competição com a China, a limitação da moderação de conteúdo de empresas de tecnologia de centro-esquerda e a proteção de crianças contra chatbots de IA.

“Eu penso [the movement to prevent catastrophic AI risk] perdeu terreno no nível federal. Nos níveis estadual e local, eles também perderam a grande luta que travaram”, disse Ball em entrevista ao TechCrunch. Claro, ele está se referindo ao polêmico projeto de lei de segurança de IA da Califórnia, SB 1047.

Parte da razão pela qual a desgraça da IA ​​caiu em desuso em 2024 foi simplesmente porque, à medida que os modelos de IA se tornaram mais populares, também vimos como eles podem ser pouco inteligentes. É difícil imaginar o Google Gemini se tornando Skynet quando apenas disse para você colocar cola na sua pizza.

Mas, ao mesmo tempo, 2024 foi um ano em que muitos produtos de IA pareciam dar vida a conceitos da ficção científica. Pela primeira vez este ano: OpenAI mostrou como poderíamos conversar com nossos telefones e não através deles, e Meta revelou óculos inteligentes com compreensão visual em tempo real. As ideias subjacentes ao risco catastrófico da IA ​​derivam em grande parte de filmes de ficção científica e, embora haja obviamente um limite, a era da IA ​​está a provar que algumas ideias da ficção científica podem não ser fictícias para sempre.

A maior luta devastadora da IA ​​em 2024: SB 1047

O senador estadual Scott Wiener, um democrata da Califórnia, à direita, durante a Cúpula Bloomberg BNEF em São Francisco, Califórnia, EUA, na quarta-feira, 31 de janeiro de 2024. A cúpula fornece ideias, insights e conexões para formular estratégias de sucesso, capitalizar mudanças tecnológicas e moldar um futuro mais limpo e mais competitivo. Fotógrafo: David Paul Morris/Bloomberg via Getty ImagesCréditos da imagem:David Paul Morris/Bloomberg via Getty Images/Getty Images

A batalha de segurança da IA ​​​​de 2024 chegou ao auge com SB 1047um projeto de lei apoiado por dois pesquisadores de IA altamente conceituados: Geoffrey Hinton e Yoshua Benjio. O projeto de lei tentava evitar que sistemas avançados de IA causassem eventos de extinção humana em massa e ataques cibernéticos que poderiam causar mais danos do que a interrupção do CrowdStrike em 2024.

O SB 1047 passou pelo Legislativo da Califórnia, chegando até a mesa do governador Gavin Newsom, onde ele o chamou de projeto de lei com “impacto descomunal”. O projeto de lei tentava evitar o tipo de coisas sobre as quais Musk, Altman e muitos outros líderes do Vale do Silício alertaram em 2023, quando assinaram aquelas cartas abertas sobre IA.

Mas Newsom vetou SB 1047. Nos dias anteriores à sua decisão, ele falou sobre regulamentação de IA no palco no centro de São Francisco, dizendo: “Não consigo resolver tudo. O que podemos resolver?”

Isto resume claramente quantos decisores políticos estão hoje a pensar sobre o risco catastrófico da IA. Simplesmente não é um problema com uma solução prática.

Mesmo assim, o SB 1047 apresentava falhas que ultrapassavam o seu foco no risco catastrófico de IA. O projeto de lei regulamentou modelos de IA com base no tamanho, na tentativa de regular apenas os maiores players. No entanto, isso não levou em conta novas técnicas, como a computação em tempo de teste ou o surgimento de pequenos modelos de IA, para os quais os principais laboratórios de IA já estão adotando. Além disso, o projeto de lei foi amplamente considerado um ataque à IA de código aberto – e, por procuração, ao mundo da investigação – porque teria limitado empresas como Meta e Mistral de lançar modelos de IA de fronteira altamente personalizáveis.

Mas de acordo com o autor do projeto, o senador estadual Scott Wiener, O Vale do Silício jogou sujo para influenciar a opinião pública sobre o SB 1047. Ele disse anteriormente ao TechCrunch que os capitalistas de risco da Y Combinator e A16Z estavam envolvidos em uma campanha de propaganda contra o projeto.

Especificamente, esses grupos espalharam a alegação de que o SB 1047 enviaria os desenvolvedores de software para a prisão por perjúrio. Y Combinator pediu aos jovens fundadores que assine uma carta dizendo isso em junho de 2024. Na mesma época, o sócio geral da Andreessen Horowitz, Anjney Midha, fez uma afirmação semelhante em um podcast.

A Brookings Institution rotulou isso como uma das muitas deturpações do projeto de lei. O SB 1047 mencionou que os executivos de tecnologia precisariam apresentar relatórios identificando deficiências de seus modelos de IA, e o projeto observou que mentir em um documento governamental é perjúrio. Contudo, os capitalistas de risco que espalham estes receios não mencionaram que as pessoas raramente são acusadas de perjúrio e ainda mais raramente condenadas.

YC rejeitou a ideia de que eles espalhassem desinformação, dizendo anteriormente ao TechCrunch que o SB 1047 era vago e não tão concreto quanto o senador Wiener fez parecer.

De forma mais geral, houve um sentimento crescente durante a luta contra o SB 1047 de que os destruidores da IA ​​não eram apenas antitecnologia, mas também delirantes. O famoso investidor Vinod Khosla chamou Wiener de ignorante sobre os perigos reais da IA ​​em outubro deste ano.

O principal cientista de IA da Meta, Yann LeCun, há muito se opõe às ideias subjacentes à destruição da IA, mas tornou-se mais franco este ano.

“A ideia de que de alguma forma [intelligent] sistemas criarão seus próprios objetivos e dominarão a humanidade é simplesmente absurdo, é ridículo”, disse LeCun em Davos em 2024observando como estamos muito longe de desenvolver sistemas de IA superinteligentes. “Existem muitas e muitas maneiras de construir [any technology] de maneiras que serão perigosas, erradas, matarão pessoas, etc. Mas enquanto houver uma maneira de fazer isso direito, isso é tudo que precisamos.”

Entretanto, os decisores políticos desviaram a sua atenção para um novo conjunto de problemas de segurança da IA.

A luta pela frente em 2025

Os legisladores por trás do SB 1047 sugeriram eles podem voltar em 2025 com um projeto de lei modificado para enfrentar os riscos de IA a longo prazo. Um dos patrocinadores do projeto, Encode, diz que a atenção nacional que o SB 1047 atraiu foi um sinal positivo.

“O movimento de segurança da IA ​​​​fez um progresso muito encorajador em 2024, apesar do veto ao SB 1047”, disse Sunny Gandhi, vice-presidente de assuntos políticos da Encode, em um e-mail ao TechCrunch. “Estamos optimistas de que a consciencialização do público sobre os riscos da IA ​​a longo prazo está a crescer e há uma vontade crescente entre os decisores políticos para enfrentar estes desafios complexos.”

Gandhi diz que a Encode espera “esforços significativos” em 2025 para regulamentar o risco catastrófico assistido por IA, embora ela não tenha divulgado nenhum específico.

No lado oposto, o sócio geral da a16z, Martin Casado, é uma das pessoas que lidera a luta contra a regulamentação do risco catastrófico de IA. Em um dezembro artigo de opinião sobre a política de IA, Casado argumentou que precisamos de uma política de IA mais razoável no futuro, declarando que “a IA parece ser tremendamente segura”.

“A primeira onda de esforços estúpidos de política de IA já ficou para trás”, disse Casado em um tweet de dezembro. “Espero que possamos ser mais inteligentes daqui para frente.”

Chamar a IA de “tremendamente segura” e as tentativas de regulá-la de “burras” é uma simplificação exagerada. Por exemplo, Character.AI – uma startup na qual a16z investiu – está atualmente sendo processado e investigado sobre questões de segurança infantil. Em um processo ativo, um garoto de 14 anos da Flórida se suicidou após supostamente confiar seus pensamentos suicidas a um chatbot Character.AI com quem ele teve conversas românticas e sexuais. Este caso, por si só, mostra como a nossa sociedade tem de se preparar para novos tipos de riscos em torno da IA ​​que podem ter parecido ridículos há apenas alguns anos.

Há mais projetos de lei circulando que abordam o risco de IA de longo prazo – incluindo um que acaba de ser apresentado em nível federal por Senador Mitt Romney. Mas agora, parece que os condenadores da IA ​​travarão uma batalha difícil em 2025.

Fonte: techcrunch.com

Continue lendo
Clique para comentar

Deixe sua resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

TECNOLOGIA

O CEO do Airbnb diz que ainda é muito cedo para o planejamento da viagem de IA

O Airbnb diz que está pronto para lançar a tecnologia de IA – mas não da maneira como os consumidores podem ter desejado inicialmente.

Em vez de oferecer ferramentas para ajudar os viajantes a planejar ou reservar suas viagens com a ajuda de agentes de IA, o Airbnb planeja primeiro introduzir a IA ao seu sistema de suporte ao cliente. Esta atualização será lançada no final deste verão, disse a empresa aos investidores durante sua ligação de ganhos no quarto trimestre de 2024 na quinta -feira.

Explicou o co-fundador e CEO da Airbnb, Brian Chesky, a IA pode fazer “um trabalho incrível” para o atendimento ao cliente, pois pode falar qualquer idioma e entender milhares de páginas de documentos. Para começar, a IA funcionará como agente de atendimento ao cliente, mas seus recursos se expandirão ao longo do tempo.

Enquanto empresas gostam OpenaiAssim, Googlee outros estão trabalhando em agentes de IA – ou software de IA que pode executar uma série de tarefas em seu nome – Chesky acredita que a tecnologia ainda é muito cedo para ser útil para o Airbnb ainda. No entanto, ele acredita que, eventualmente, a IA terá um “profundo impacto na viagem”, mesmo que nada tenha mudado para as principais plataformas de viagem a partir de agora.

“Aqui está o que eu penso sobre ai. Eu acho que ainda é muito cedo ”, disse Chesky. “Provavelmente é semelhante a … os anos 90 da Internet.”

Ele observou que outras empresas estavam trabalhando em integrações em torno do planejamento da viagem, mas que acha que é muito cedo para o planejamento da viagem à IA.

“Eu não acho que seja bem [a] Um pouco pronto para o horário nobre ”, acrescentou o CEO.

À medida que a tecnologia de IA continua a se desenvolver, o Airbnb expandirá o agente de atendimento ao cliente da IA ​​para fazer parte da pesquisa do Airbnb e, em algum momento muito mais adiante, também se tornará um “concierge de viagens e vivos”, disse Chesky.

Além do atendimento ao cliente, a empresa relatou alguns pequenos ganhos de produtividade ao usar a IA internamente para fins de engenharia. Mas aqui também, o executivo aconselhou a cautela, dizendo: “Eu não acho que está fluindo para uma mudança fundamental na produtividade ainda”.

Em alguns anos, esses ganhos podem atingir algum tipo de impacto de “médio prazo”, observou Chesky, como um aumento de 30% na produtividade de tecnologia e engenharia.

O Airbnb não disse se o uso da IA ​​afetaria o número de funcionários, mas a CFO Ellie Mertz sugeriu maiores eficiências possíveis no campo do atendimento ao cliente, em particular.

“Em termos de '25 e as perspectivas, eu diria, há oportunidades incrementais em nossos custos variáveis; portanto, áreas como processamento de pagamentos e oportunidades de atendimento ao cliente para serem, francamente, um pouco mais eficientes e proporcionar alguma expansão de margem , ”Mertz disse a investidores.

O Airbnb relatou ganhos fortes no quarto trimestre que viu as ações estão em 15% Depois de vencer os ganhos e a receita. A empresa ganhou US $ 2,48 bilhões em receita no trimestre, acima das estimativas de US $ 2,42 bilhões e ganhos por ação de 73 centavos, acima dos 58 centavos esperados.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

Icon, um pioneiro na impressão caseira 3D, levanta US $ 56 milhões liderados por Norwest, Tiger Global

ÍCONEque constrói casas usando impressão 3D, fechou US $ 56 milhões em financiamento da série C, co-liderado pela Norwest Venture Partners e Tiger Global, a empresa confirmou a TechCrunch exclusivamente.

O aumento representa um primeiro fechamento para o ícone de Austin, de acordo com um porta-voz. Investimentos CAZ de apoiadores existentes, LenXModerne Ventures, Oakhouse Partners e Overmatch Ventures também participaram da rodada. Financiamento adicional de “até US $ 75 milhões” está planejado, de acordo com o porta -voz.

O Icon se recusou a revelar sua nova avaliação ou comentar se a avaliação foi subida, abaixo ou plana. A nova infusão de capital eleva o total da startup aumentada para mais de US $ 500 milhões. Na época de seu último aumento em fevereiro de 2022 – uma extensão de US $ 185 milhões de uma rodada da Série B – a avaliação do ícone estava “se aproximando de US $ 2 bilhões”.

O ex -candidato à presidência e congressista Will Hurd, que investiu anteriormente no ICON, também ingressou no conselho de administração da empresa.

Fundado no final de 2017, ÍCONE Lançado durante o SXSW em março de 2018, com a primeira casa de impressão 3D permitida nos EUA que a casa de 350 pés quadrados levou cerca de 48 horas (a 25% de velocidade) para imprimir.

O ícone planeja usar seu novo capital principalmente para “alimentar o desenvolvimento de” Fênixsua linha de impressoras 3D de vários andares para que possa “começar a colocar a tecnologia robótica nas mãos dos construtores”. A nova impressora robótica, disse o porta-voz, permite a construção de vários andares usando um novo material de construção de baixo carbono.

No entanto, a empresa ainda está construindo casas em si. O ICON ainda planeja “projetar e construir uma seleção de projetos -chave em residenciais, hospitalidade, moradias sociais/acessíveis e aqueles do Departamento de Defesa”, disse o porta -voz.

Ao longo dos anos, o Icon diz que impressa em 3D quase 200 casas e estruturas nos EUA e no México “em residencial social/acessível, residencial de taxa de mercado, moradia de ajuda a desastres, quartéis e outras estruturas para o Exército dos EUA, NASA e DOD”. Algumas dessas estruturas incluem casas unifamiliares para os sem-teto.

Em janeiro, a empresa confirmou que era deixando de lado 114 funcionários. Na época, a empresa disse que “recentemente tomou uma decisão difícil de realinhar” o tamanho da equipe e da equipe “para se concentrar em nossas mais altas prioridades e continuar investindo em nossas melhores oportunidades de crescimento”. Atualmente, possui cerca de 200 funcionários.

Quer alcançar com uma dica? Envie -me um e -mail Maryann@techcrunch.com Ou envie -me uma mensagem no sinal em 408.204.3036. Você também pode enviar uma nota para toda a equipe do TechCrunch em tips@techcrunch.com. Para comunicações mais seguras, Clique aqui para entrar em contato conoscoque inclui o SecuredRop e os links para aplicativos de mensagens criptografadas.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

A Europa nega que soltar as regras de responsabilidade de IA sob pressão de Trump

A União Europeia negou que movimentos recentes para Linha de volta em algum regulamento técnico planejado – principalmente abandonando o Diretiva de responsabilidade da IAum projeto de lei de 2022 que visava facilitar os consumidores processou os danos causados ​​por produtos e serviços habilitados para a IA-foram feitos em resposta à pressão do governo Trump para desregular em torno da IA.

Em uma entrevista com o Times financeiros Na sexta -feira, Henna Virkkunen, chefe digital da UE, alegou que a proposta de responsabilidade da IA ​​estava sendo descartada porque o bloco queria se concentrar em aumentar a competitividade cortando burocracia e burocracia.

Um próximo código de prática na IA – anexado ao Lei da AI da UE – também limitaria os requisitos de relatórios ao que está incluído nas regras de IA existentes, disse ela.

Sobre Terça-feiraO vice-presidente dos EUA, JD Vance, alertou os legisladores europeus a pensar novamente quando se trata de fazer regras de tecnologia-instando o bloco a se juntar a ele para se inclinar para a “oportunidade da AI”, através de um discurso no Cúpula de ação de Paris AI.

A Comissão publicou seu 2025 Programa de trabalho no dia seguinte ao discurso de Vance – divulgando um “Mais ousado, mais simples, mais rápidoUnião. O documento confirmou o desaparecimento da proposta de responsabilidade de IA, ao mesmo tempo em que estabelece planos destinados a alimentar o desenvolvimento e adoção regional da IA.

Fonte: techcrunch.com

Continue lendo

Top

Social Media Auto Publish Powered By : XYZScripts.com