Conecte-se com a gente!

TECNOLOGIA

A tecnologia climática pode ser o mercado de trabalho em alta em 2024

Um dos principais histórias que definiram o setor de tecnologia em 2023 foi demissões. Grandes e pequenas empresas perderam mais de 240 mil empregos no último ano e, embora a tendência tenha arrefecido ultimamente, não parou, com quase 7 mil empregos cortados só em Novembro.

Mas houve pontos positivos. A tecnologia climática é um setor que está contratandoe 2024 parece que continuará a tendência.

Os empregos em energia limpa cresceram 10% nos últimos dois anos, ultrapassando a economia como um todo, de acordo com um relatório de um grupo industrial E2. Até 2032, quando a Lei de Redução da Inflação deverá expirar, os campos de trabalho que mais crescem incluem técnico em turbinas eólicas (crescimento de 45%) e instalador solar fotovoltaico (crescimento de 22%), de acordo com o Secretaria de Estatísticas Trabalhistas.

Para as startups, 2023 foi mais confuso. À medida que os investidores fechavam os seus bolsos, os fundadores tiveram de fazer escolhas difíceis sobre como alargar as suas pistas. Alguns tiveram que recorrer a demissões, mas nem todos. Muitos fundadores com quem conversei continuam enfatizando que estão contratando para diversas funções.

Para aqueles que foram despedidos do sector tecnológico em geral, a tecnologia climática pareceria ser um pivô atraente e, para muitos, isso está a provar ser verdade. Quase todas as empresas precisam de desenvolvedores de software, gerentes de projeto e designers. Há necessidade de 240.000 deles? Provavelmente ainda não. E alguns que parecem adequados podem exigir um pouco de conhecimento climático ou energético por parte do candidato.

Em outras palavras, há uma lacuna de competências.

Fonte: techcrunch.com

Continue lendo
Clique para comentar

Deixe sua resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

TECNOLOGIA

WhatsApp está adicionando uma maneira de transformar selfies em adesivos

O WhatsApp está adicionando novos recursos, incluindo a criação de novos adesivos a partir de selfies, o compartilhamento de pacotes de adesivos e a adição de novos efeitos de câmera. Adesivos e efeitos de câmera são boas estratégias de engajamento para manter os usuários interagindo com seus contatos.

O aplicativo de bate-papo adicionou a capacidade de crie adesivos personalizados a partir de fotos do ano passado. Agora, a empresa está adicionando uma opção para transformar selfies diretamente em adesivos. Com a nova atualização, você verá uma opção de câmera ao tocar no botão “Criar adesivos” no menu de adesivos. Então, você pode tirar uma selfie e o aplicativo irá converter essa imagem em um adesivo e salvá-la na bandeja de adesivos.

Créditos da imagem: WhatsApp

No ano passado, Meta também lançou a capacidade de criar adesivos de IA por meio do Meta AI nos EUA

O WhatsApp também está adicionando uma forma de compartilhar diretamente links de pacotes de adesivos, para que você possa compartilhar seus favoritos com seus amigos.

Além do mais, o aplicativo de propriedade da Meta está adicionando 30 planos de fundo, filtros e efeitos para fotos e vídeos. O aplicativo lançou filtros para videochamadas no ano passado e agora está adicionando-os à câmera do WhatsApp. Muitos desses efeitos lembram lentes do Snapchat ou filtros do Instagram.

O WhatsApp também está adicionando uma nova maneira de reagir a uma mensagem, tocando duas vezes nela e exibindo as reações mais usadas.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

A obsessão da startup EV Harbinger pela simplicidade alimenta a Série B de US$ 100 milhões

Não é um momento fácil para arrecadar dinheiro para uma startup de veículos elétricos, especialmente considerando quantos falharam ou estão perto de falir. Mas com sede em Los Angeles Prenúncio conseguiu isso adotando uma abordagem hiperfocada para eletrificar o transporte comercial.

A recompensa é uma Série B de US$ 100 milhões, co-liderada pelo primeiro investidor da Tesla, Capricorn Investor Group, e Leitmotif, um novo fundo dos EUA co-fundado pelo ex-chefe de fusões e aquisições da Volkswagen. Também participaram da rodada Tiger Global e empresa de risco de mobilidade Manivambos investidores existentes.

“Sabemos como foi o espaço dos EV. Sabemos que está repleto de corpos da década passada”, disse o CEO da Harbinger, John Harris, ao TechCrunch em uma entrevista. “Então, nós realmente tentamos manter nosso escopo muito focado e ter muita confiança no que dizemos que vamos fazer antes de dizermos que vamos fazer.”

Fundada em 2022 por um grupo de ex-funcionários da Canoo e da QuantumScapea Harbinger decidiu fabricar um chassi modular totalmente elétrico para caminhões médios.

Então… fez isso, e só isso.

A Harbinger manteve seu foco em um momento em que os investidores investiram bilhões de dólares em startups que afirmavam que fabricariam centenas de milhares de veículos elétricos ou remodelariam o transporte como o conhecemos. A chegada, por exemplo, começou em um setor semelhante ao Harbinger. Mas ao se tornar público, a Arrival afirmou que iria reinventar a fabricação de veículos com as chamadas microfábricasplanejava fabricar ônibus, desenvolveu um carro de passeio com a Uber e foi potencialmente até trabalhando em uma aeronave.

A chegada agora está falida. A Harbinger, por sua vez, fechou uma Série B e está prestes a entrar em produção.

“A Harbinger é uma equipe incrível de operadores muito experientes, com muitas cicatrizes e experiência relevante de suas funções anteriores”, disse o cofundador da Leitmotif, Jens Wiese, ex-executivo da VW, em entrevista. “Eles estão simplesmente focados neste segmento e acertando o produto.”

Harris disse que focar em um produto não apenas permitiu que sua startup sobrevivesse, mas também ajudou a melhorar o produto.

Como exemplo, Harris apontou as baterias que alimentam o chassi do Harbinger. Em vez de embalá-los em aço estampado, que precisa ser soldado – e pode causar vazamentos que danificam as baterias – a Harbinger investiu em uma prensa de 6.500 toneladas que usa altas pressões para fundir todo o gabinete.

Harris disse que a Harbinger só conseguiu investir em uma ferramenta tão especializada porque não precisava distribuir seus gastos por vários outros produtos. O resultado: gabinetes de baterias que custam apenas um vigésimo do custo normal.

Investimentos como este permitiram à Harbinger tornar o seu chassis mais acessível desde o início, em vez de depender de uma escala massiva para alcançar uma economia unitária atractiva.

E como a Harbinger está essencialmente vendendo para CFOs de empresas de frota, o sócio-gerente da Maniv, Michael Granoff, disse que é uma proposta tentadora.

“O segmento que eles buscam não substituem suas frotas com tanta frequência e, quando pensam nisso, já fazem isso há vários anos – e a matemática fica tão convincente que é simplesmente inevitável, – Granoff disse.

Granoff acredita tanto na oportunidade da Harbinger que sua empresa investiu mais na startup do que qualquer outra empresa. A Série B da Harbinger também é a única rodada de investimentos ao qual o segundo fundo da Maniv se juntou e que a empresa não liderou.

“Basicamente, já entregamos uma economia unitária convincente, e é por isso que entram pessoas que normalmente não estariam neste espaço, [investors] como Tiger”, disse Harris. “Temos economia unitária líder do setor, se você ignorar a Tesla, mas espero que tenhamos margens melhores do que elas, provavelmente em mais 12 a 18 meses.”

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

O modelo de raciocínio de IA da OpenAI às vezes 'pensa' em chinês e ninguém sabe realmente por quê

Pouco depois do lançamento do OpenAI o1seu primeiro modelo de IA de “raciocínio”, as pessoas começaram a notar um fenômeno curioso. O modelo às vezes começava a “pensar” em chinês, persa ou algum outro idioma – mesmo quando fazia uma pergunta em inglês.

Dado um problema para resolver — por exemplo, “Quantos R existem na palavra 'morango?'” — o1 iniciaria o seu processo de “pensamento”, chegando a uma resposta através da execução de uma série de passos de raciocínio. Se a pergunta fosse escrita em inglês, a resposta final de o1 seria em inglês. Mas o modelo executaria algumas etapas em outro idioma antes de chegar à sua conclusão.

“[O1] comecei a pensar aleatoriamente em chinês no meio do caminho”, um usuário do Reddit disse.

“Por que [o1] começar a pensar aleatoriamente em chinês?” um usuário diferente perguntou em um postar no X. “Nenhuma parte da conversa (mais de 5 mensagens) foi em chinês.”

A OpenAI não forneceu uma explicação para o comportamento estranho do o1 – nem mesmo o reconheceu. Então, o que pode estar acontecendo?

Bem, os especialistas em IA não têm certeza. Mas eles têm algumas teorias.

Vários no X incluindo o CEO da Hugging Face Clément Delangue aludiu ao fato de que modelos de raciocínio como o1 são treinados em conjuntos de dados contendo muitos caracteres chineses. Ted Xiao, pesquisador do Google DeepMind, afirmou que empresas, incluindo a OpenAI, usam serviços de rotulagem de dados chineses de terceiros e que a mudança para o chinês é um exemplo de “influência linguística chinesa no raciocínio”.

“[Labs like] OpenAI e Antrópico utilizam [third-party] serviços de rotulagem de dados para dados de raciocínio em nível de doutorado para ciências, matemática e codificação”, escreveu Xiao em um postar no X. “[F]ou disponibilidade de mão de obra especializada e razões de custo, muitos desses fornecedores de dados estão baseados na China.”

Os rótulos, também conhecidos como tags ou anotações, ajudam os modelos a compreender e interpretar os dados durante o processo de treinamento. Por exemplo, rótulos para treinar um modelo de reconhecimento de imagem podem assumir a forma de marcações em torno de objetos ou legendas referentes a cada pessoa, lugar ou objeto representado em uma imagem.

Estudos demonstraram que rótulos tendenciosos podem produzir modelos tendenciosos. Por exemplo, o anotador médio é mais provável que rotule frases em inglês vernáculo afro-americano (AAVE), a gramática informal usada por alguns negros americanos, como tóxicas, levando os detectores de toxicidade de IA treinados nos rótulos a ver AAVE como desproporcionalmente tóxico.

Outros especialistas, no entanto, não aceitam a hipótese chinesa de rotulagem de dados. Eles apontam que o1 tem a mesma probabilidade de mudar para hindi, Tailandêsou um idioma diferente do chinês enquanto procura uma solução.

Em vez disso, esses especialistas dizem, o1 e outros modelos de raciocínio pode ser simplesmente usando idiomas consideram mais eficiente para alcançar um objetivo (ou alucinando).

“O modelo não sabe o que é a linguagem ou que as línguas são diferentes”, disse Matthew Guzdial, pesquisador de IA e professor assistente da Universidade de Alberta, ao TechCrunch. “É tudo apenas uma mensagem de texto.”

Na verdade, os modelos não processam palavras diretamente. Eles usam fichas em vez de. Fichas pode ser palavras como “fantástico”. Ou podem ser sílabas, como “fan”, “tas” e “tic”. Ou podem até ser caracteres individuais em palavras – por exemplo, “f”, “a”, “n”, “t”, “a”, “s”, “t”, “i”, “c”.

Assim como a rotulagem, os tokens podem introduzir preconceitos. Por exemplo, muitos tradutores de palavra para token assumem que um espaço em uma frase denota uma nova palavra, apesar do fato de que nem todos os idiomas usam espaços para separar palavras.

Tiezhen Wang, engenheiro de software da startup de IA Hugging Face, concorda com Guzdial que as inconsistências de linguagem dos modelos de raciocínio podem ser explicadas por associações feitas pelos modelos durante o treinamento.

“Ao abraçar todas as nuances linguísticas, expandimos a visão de mundo do modelo e permitimos que ele aprenda com todo o espectro do conhecimento humano”, Wang escreveu em uma postagem no X. “Por exemplo, prefiro fazer contas em chinês porque cada dígito tem apenas uma sílaba, o que torna os cálculos nítidos e eficientes. Mas quando se trata de temas como preconceito inconsciente, mudo automaticamente para o inglês, principalmente porque foi lá que aprendi e absorvi essas ideias pela primeira vez.”

A teoria de Wang é plausível. Afinal, os modelos são máquinas probabilísticas. Treinados em muitos exemplos, eles aprendem padrões para fazer previsões, como “para quem” em um e-mail normalmente precede “pode interessar”.

Mas Luca Soldaini, cientista pesquisador do Instituto Allen de IA, sem fins lucrativos, alertou que não podemos ter certeza. “É impossível fazer backup desse tipo de observação em um sistema de IA implantado devido à opacidade desses modelos”, disse ele ao TechCrunch. “É um dos muitos casos em que a transparência na forma como os sistemas de IA são construídos é fundamental.”

Sem uma resposta da OpenAI, ficamos pensando sobre por que o1 pensa em músicas em francês, mas biologia sintética em mandarim.

Fonte: techcrunch.com

Continue lendo

Top

Social Media Auto Publish Powered By : XYZScripts.com