Esta Semana em IA: Por que o o1 da OpenAI muda o jogo da regulação de IA

Olá, pessoal, bem-vindos ao boletim regular de IA da TechCrunch. Se você deseja recebê-lo em sua caixa de entrada todas as quartas-feiras, inscreva-se aqui.

Já se passaram apenas alguns dias desde que a OpenAI revelou seu mais recente modelo gerativo principal, o1, para o mundo. Comercializado como um modelo de 'raciocínio', o1 basicamente leva mais tempo para 'pensar' sobre as perguntas antes de respondê-las, quebrando problemas e verificando suas próprias respostas.

Há muitas coisas que o o1 não pode fazer bem - e a própria OpenAI admite isso. Mas em algumas tarefas, como física e matemática, o o1 se destaca mesmo sem necessariamente ter mais parâmetros do que o modelo de melhor desempenho anterior da OpenAI, o GPT-4o. (Na IA e aprendizado de máquina, 'parâmetros', geralmente na casa dos bilhões, correspondem aproximadamente às habilidades de resolução de problemas de um modelo.)

E isso tem implicações para a regulação de IA.

O projeto de lei proposto da Califórnia, SB 1047, por exemplo, impõe requisitos de segurança a modelos de IA que custaram mais de US $100 milhões para desenvolver ou foram treinados usando poder de computação além de um determinado limite. Modelos como o o1, no entanto, demonstram que escalar o poder de computação de treinamento não é a única maneira de melhorar o desempenho de um modelo.

Em uma postagem no X, o gerente de pesquisa da Nvidia, Jim Fan, postulou que os futuros sistemas de IA podem depender de 'núcleos de raciocínio' pequenos e mais fáceis de treinar, em oposição às arquiteturas intensivas em treinamento (por exemplo, o Llama 405B da Meta) que têm sido a tendência ultimamente. Estudos acadêmicos recentes, ele observa, mostraram que modelos pequenos como o o1 podem superar significativamente modelos grandes, desde que tenham mais tempo para pensar nas perguntas.

Então, foi míope para os legisladores vincular medidas regulatórias de IA ao cálculo? Sim, diz Sara Hooker, chefe do laboratório de pesquisa da startup de IA Cohere, em entrevista à TechCrunch:

[o1] meio que aponta como essa é uma visão incompleta, usando o tamanho do modelo como um proxy para o risco. Não leva em consideração tudo o que você pode fazer com a inferência ou a execução de um modelo. Para mim, é uma combinação de má ciência combinada com políticas que enfatizam não os riscos atuais que vemos no mundo agora, mas os riscos futuros.

Agora, isso significa que os legisladores devem rasgar os projetos de lei de IA de suas bases e começar de novo? Não. Muitos foram escritos para serem facilmente modificáveis, sob a suposição de que a IA evoluiria muito além de sua promulgação. O projeto de lei da Califórnia, por exemplo, daria à Agência de Operações do Governo do estado a autoridade para redefinir os limites de cálculo que acionam os requisitos de segurança da lei.

A parte complicada será descobrir qual métrica poderia ser um melhor proxy para risco do que o cálculo de treinamento. Como tantos outros aspectos da regulação de IA, é algo para se pensar enquanto os projetos de lei nos EUA - e no mundo - caminham em direção à aprovação.

Notícias

Créditos da imagem: David Paul Morris / Bloomberg / Getty Images

Primeiras reações ao o1: Max obteve impressões iniciais de pesquisadores de IA, fundadores de startups e VCs sobre o o1 - e testou o modelo ele mesmo.

Altman deixa o comitê de segurança: O CEO da OpenAI, Sam Altman, renunciou ao comitê da startup responsável por revisar a segurança de modelos como o o1, provavelmente em resposta a preocupações de que ele não agiria imparcialmente.

O Slack se transforma em um centro de agentes: Na conferência anual Dreamforce de sua empresa-mãe Salesforce, o Slack anunciou novos recursos, incluindo resumos de reuniões gerados por IA e integrações com ferramentas para geração de imagens e buscas web orientadas por IA.

O Google começa a sinalizar imagens de IA: O Google diz que planeja implementar alterações no Google Search para deixar mais claro quais imagens nos resultados foram geradas por IA - ou editadas por ferramentas de IA.

A Mistral lança um nível gratuito: A startup de IA francesa Mistral lançou um novo nível gratuito para permitir que os desenvolvedores ajustem e construam aplicativos de teste com os modelos de IA da startup.

O Snap lança um gerador de vídeos: Em seu evento anual Snap Partner Summit na terça-feira, o Snapchat anunciou que está introduzindo uma nova ferramenta de geração de vídeos com IA para criadores. A ferramenta permitirá que criadores selecionados gerem vídeos de IA a partir de prompts de texto e, em breve, de prompts de imagem.

A Intel fecha acordo de chip importante: A Intel diz que vai co-desenvolver um chip de IA com a AWS usando o processo de fabricação de chips 18A da Intel. As empresas descreveram o acordo como um 'framework' de 'múltiplos anos e vários bilhões de dólares' que poderia envolver potencialmente designs adicionais de chips.

Especial de IA da Oprah: Oprah Winfrey exibiu um especial sobre IA com convidados como Sam Altman da OpenAI, Bill Gates da Microsoft, o influenciador de tecnologia Marques Brownlee e o diretor do FBI atual, Christopher Wray.

Artigo de pesquisa da semana

Sabemos que a IA pode ser persuasiva, mas será que ela pode tirar alguém de um buraco de co...