El hambre de energía de ChatGPT podría desencadenar una revolución en las GPU

0
56


El costo de logrando mayores avances en inteligencia artificial ChatGPT se está volviendo tan sorprendente como una alucinación. La demanda de chips gráficos conocidos como GPU, necesarios para el entrenamiento de IA a gran escala, ha impulsado los precios de los componentes cruciales. a través del techo. OpenAI ha dicho que entrenar el algoritmo que ahora impulsa ChatGPT costar a la empresa más de 100 millones de dólares. La carrera por competir en IA también significa que los centros de datos ahora consumen datos preocupantes. cantidades de energía.

La fiebre del oro de la IA hace que algunas nuevas empresas estén tramando planes audaces para crear nuevas palas computacionales para vender. Las GPU de Nvidia son, con diferencia, el hardware más popular para el desarrollo de IA, pero estos advenedizos argumentan que es hora de repensar radicalmente cómo se diseñan los chips de computadora.

Computación normaluna startup fundada por veteranos de Google Brain y el laboratorio lunar X de Alphabet, ha desarrollado un prototipo simple Este es un primer paso para reiniciar la informática desde los primeros principios.

Un chip de silicio convencional ejecuta cálculos manejando bits binarios (es decir, 0 y 1) que representan información. La unidad de procesamiento estocástico de Normal Computing, o SPU, explota las propiedades termodinámicas de los osciladores eléctricos para realizar cálculos utilizando fluctuaciones aleatorias que ocurren dentro de los circuitos. Eso puede generar muestras aleatorias útiles para cálculos o para resolver cálculos de álgebra lineal, que son omnipresentes en ciencia, ingeniería y aprendizaje automático.

Faris Sbahi, director ejecutivo de Normal Computing, explica que el hardware es muy eficiente y muy adecuado para manejar cálculos estadísticos. Algún día esto podría resultar útil para crear algoritmos de inteligencia artificial que puedan manejar la incertidumbre, quizás abordando la tendencia de los grandes modelos de lenguaje a “alucinar” resultados cuando no están seguros.

Sbahi dice que el reciente éxito de la IA generativa es impresionante, pero está lejos de ser la forma final de la tecnología. “Está bastante claro que hay algo mejor en términos de arquitecturas de software y también de hardware”, afirma Sbahi. Él y sus cofundadores trabajaron anteriormente en computación cuántica e inteligencia artificial en Alphabet. La falta de progreso en el aprovechamiento de las computadoras cuánticas para el aprendizaje automático los impulsó a pensar en otras formas de explotar la física para impulsar los cálculos necesarios para la IA.

Otro equipo de ex investigadores cuánticos en Alphabet dejado por fundar extrópico, una empresa todavía discreta que parece tener un plan aún más ambicioso para utilizar la computación termodinámica para la IA. “Estamos intentando hacer toda la computación neuronal estrechamente integrada en un chip termodinámico analógico”, dice Guillaume Verdon, fundador y director ejecutivo de Extropic. “Estamos tomando lo aprendido del software y hardware de computación cuántica y llevándolos al paradigma termodinámico completo”. (Verdon fue revelado recientemente como la persona detrás de la popular cuenta de memes en X Beff Jezosasociado con el llamado movimiento de aceleracionismo efectivo que promueve la idea de un progreso hacia una “singularidad del tecnocapital”).

La idea de que es necesario un replanteamiento más amplio de la informática puede estar ganando impulso a medida que la industria se topa con la dificultad de mantener la ley de Moore, la antigua predicción de que la densidad de los componentes de los chips continúa reduciéndose. “Incluso si la ley de Moore no se estuviera desacelerando, todavía tenemos un problema enorme, porque los tamaños de los modelos que OpenAI y otros han estado lanzando están creciendo mucho más rápido que la capacidad del chip”, dice Peter McMahon, profesor de la Universidad de Cornell que trabaja en Nuevas formas de computación. En otras palabras, es posible que necesitemos explotar nuevas formas de computación para mantener el tren de la IA en marcha.





Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here