OpenAI se enfoca ahora en el siguiente gran reto: los Chips

OpenAI
OpenAI.

OpenAI es un nuevo laboratorio de inteligencia artificial que busca compartir abiertamente sus investigaciones con el mundo en general.

OpenAI se enfoca ahora en el siguiente gran reto: los Chips

OpenAI es un nuevo laboratorio de inteligencia artificial que busca compartir abiertamente sus investigaciones con el mundo en general. Elon Musk y Sam Altman reclutaron a varios investigadores de primer nivel dentro de Google y Facebook. Pero si este proyecto inusual va a empujar la investigación de la IA a nuevas alturas, necesitará más que talento. Necesitará enormes cantidades de poder de cálculo.

Google y Facebook tienen los recursos necesarios para construir los clusters masivos de computación que impulsaran la investigación moderna de la IA, incluyendo vastas redes de máquinas llenas de procesadores GPU y otros chips especializados.

Google incluso ha ido mas lejos aun construyendo su propio procesador de AI. Pero aunque OpenAI dice que está respaldada por más de mil millones de dólares en financiamiento, la compañía está tomando una ruta diferente.

Está utilizando los servicios de cloud computing ofrecidos por Microsoft y quizás por otros gigantes de la tecnología.

"Tenemos una gran necesidad de carga de cálculo y Microsoft nos puede ayudar a soportar eso", dice Altman, presidente de la incubadora tecnológica Y Combinator y copresidente de OpenAI junto a Musk, el fundador de la compañía de coches eléctricos Tesla Motors.

El acuerdo apunta a un nuevo campo de batalla en el mundo cada vez más importante del cloud computing, donde empresas como Microsoft, Amazon y Google ofrecen enormes cantidades de poder de computación a través de Internet.

OpenAI es parte de un movimiento hacia las redes neuronales profundas, redes de hardware y software de las que aprender tareas discretas mediante el análisis de grandes cantidades de datos, y esta tecnología se apoya fuertemente en las GPU y otros chips especializados, incluyendo el procesador TPU construido por Google.

A medida que el aprendizaje profundo continúa propagándose a través de la industria de la tecnología de reconocimiento de imágenes y voz para la traducción automática, los desarrolladores requerirán los servicios de computación en la nube que proporcionen esta nueva generación de hardware.

Un equipo de investigación como el OpenAI, que está tratando de empujar los límites de la inteligencia artificial, requiere una potencia informática más especializada que una tienda online normal. La investigación del aprendizaje profundo es a menudo una cuestión de ensayo y error llevado al extremo a través de enormes explotaciones de GPU.

El hardware usado para entrenar y ejecutar redes neurales profundas está cambiando. TPU de Google es un ejemplo de eso. Dentro de su propia operación, Microsoft se está moviendo a FPGAs. Fabricantes de chips como IBM y Nervana, ahora propiedad de Intel, están desarrollando chips similares dedicados a aplicaciones de AI. Las GPUs no fueron diseñadas para la IA. Fueron diseñados para renderizar gráficos.

Comentarios