News

A nova startup de IA focada em segurança do cofundador da OpenAI, Sutskever, SSI, arrecada US$ 1 bilhão

Daniel Gross, Ilya Sutskever e Daniel Levy, cofundadores da empresa de IA Safe Superintelligence

Nova Iorque:

A Safe Superintelligence (SSI), recentemente cofundada pelo ex-cientista-chefe da OpenAI, Ilya Sutskever, arrecadou US$ 1 bilhão em dinheiro para ajudar a desenvolver sistemas seguros de inteligência artificial que superam em muito as capacidades humanas, disseram executivos da empresa à Reuters.

A SSI, que atualmente tem 10 funcionários, planeja usar os fundos para adquirir poder de computação e contratar os melhores talentos. Ela se concentrará em construir uma pequena equipe altamente confiável de pesquisadores e engenheiros divididos entre Palo Alto, Califórnia e Tel Aviv, Israel.

A empresa se recusou a compartilhar sua avaliação, mas fontes próximas ao assunto disseram que ela foi avaliada em US$ 5 bilhões. O financiamento destaca como alguns investidores ainda estão dispostos a fazer apostas exageradas em talentos excepcionais focados em pesquisa fundamental de IA. Isso apesar de uma diminuição geral no interesse em financiar essas empresas, que podem não ser lucrativas por algum tempo, e que fizeram com que vários fundadores de startups deixassem seus cargos para gigantes da tecnologia.

Os investidores incluíram as principais empresas de capital de risco Andreessen Horowitz, Sequoia Capital, DST Global e SV Angel. A NFDG, uma parceria de investimentos administrada por Nat Friedman e pelo presidente-executivo da SSI, Daniel Gross, também participou.

“É importante para nós estarmos cercados de investidores que entendam, respeitem e apoiem nossa missão, que é avançar direto para a superinteligência segura e, em particular, passar alguns anos fazendo P&D em nosso produto antes de colocá-lo no mercado”, disse Gross em uma entrevista.

A segurança da IA, que se refere à prevenção de que a IA cause danos, é um tema quente em meio a temores de que uma IA desonesta possa agir contra os interesses da humanidade ou até mesmo causar a extinção humana.

Um projeto de lei da Califórnia buscando impor regulamentações de segurança a empresas dividiu a indústria. Ele é contestado por empresas como OpenAI e Google, e apoiado pela Anthropic e xAI de Elon Musk.

Sutskever, 37, é um dos tecnólogos mais influentes em IA. Ele foi cofundador da SSI em junho com Gross, que anteriormente liderou iniciativas de IA na Apple, e Daniel Levy, um ex-pesquisador da OpenAI.

Sutskever é o cientista-chefe e Levy é o cientista principal, enquanto Gross é responsável pelo poder computacional e arrecadação de fundos.

NOVA MONTANHA

Sutskever disse que seu novo empreendimento fazia sentido porque ele “identificou uma montanha que é um pouco diferente daquela em que eu estava trabalhando”.

No ano passado, ele fez parte do conselho da organização sem fins lucrativos controladora da OpenAI, que votou pela demissão do CEO da OpenAI, Sam Altman, devido a uma “falha nas comunicações”.

Em poucos dias, ele reverteu sua decisão e se juntou a quase todos os funcionários da OpenAI para assinar uma carta exigindo o retorno de Altman e a renúncia do conselho. Mas a reviravolta dos eventos diminuiu seu papel na OpenAI. Ele foi removido do conselho e deixou a empresa em maio.

Após a saída de Sutskever, a empresa desmantelou sua equipe de “Superalinhamento”, que trabalhava para garantir que a IA permanecesse alinhada aos valores humanos para se preparar para o dia em que a IA excederia a inteligência humana.

Diferentemente da estrutura corporativa pouco ortodoxa da OpenAI, implementada por razões de segurança da IA, mas que tornou possível a saída de Altman, a SSI tem uma estrutura regular com fins lucrativos.

Atualmente, a SSI está muito focada em contratar pessoas que se encaixem em sua cultura.

Gross disse que eles passam horas avaliando se os candidatos têm “bom caráter” e estão procurando pessoas com capacidades extraordinárias em vez de enfatizar demais credenciais e experiência na área.

“Uma coisa que nos anima é quando você encontra pessoas interessadas no trabalho, mas não interessadas na cena, no hype”, acrescentou.

A SSI diz que planeja fazer parcerias com provedores de nuvem e empresas de chips para financiar suas necessidades de poder de computação, mas ainda não decidiu com quais empresas trabalhará. Startups de IA geralmente trabalham com empresas como Microsoft e Nvidia para atender às suas necessidades de infraestrutura.

Sutskever foi um dos primeiros defensores do escalonamento, uma hipótese de que os modelos de IA melhorariam em desempenho, dadas as vastas quantidades de poder de computação. A ideia e sua execução deram início a uma onda de investimentos em IA em chips, data centers e energia, estabelecendo as bases para avanços de IA generativa como o ChatGPT.

Sutskever disse que abordará o dimensionamento de uma maneira diferente de seu antigo empregador, sem compartilhar detalhes.

“Todo mundo só fala em hipótese de escala. Todo mundo esquece de perguntar, o que estamos escalando?” ele disse.

“Algumas pessoas podem trabalhar horas realmente longas e elas simplesmente seguirão o mesmo caminho mais rápido. Não é tanto o nosso estilo. Mas se você fizer algo diferente, então se torna possível para você fazer algo especial.”

(Esta história não foi editada pela equipe da NDTV e é gerada automaticamente a partir de um feed distribuído.)

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button