Julián, ¿vos no te la pasás diciendo que “Todo a la corta o a la larga migra hacia una capa de software sobre lo que ya existe”? La respuesta es sí.

Entonces, si OpenAI ya sabe que lo que sea que invente ahora, a la larga o a la corta, terminará reemplazado por una aplicación montada en la arquitectura que predomine, ¿para qué se pone a fabricar un producto físico? ¿Por qué no ponen directamente una app que haga todo lo que ya sabe que va a hacer y la meten en iOS o en PlayStore y se ahorran años de dinero invertido?

Porque, mis queridos lectores, lo que están buscando Sam Altam y sus amiguitos es otra cosa. Son otras cosas, en plural.

El problema que están intentando resolver no es de distribución, es de interfaz. No pasa por cuánta gente puede utilizar algo que podría descargar, sino en entender cómo se interactúa con la IA una vez que esté inmiscuida en todo lo que nos rodea. Me voy a explayar un poco.

A como están las cosas hoy por hoy, lo que busca OpenAI es entender y definir una nueva interfaz conversacional: continua, ambiental, con reglas propias, integrada al día a día y no a la lógica de abrir y cerrar aplicaciones.

Pero eso no se puede hacer como app en esta etapa, porque quedaría inevitablemente subordinada a iOS y Android en capas que OpenAI no controla. Hoy existen permisos, wake words, límites de escucha en segundo plano, gestión de interrupciones y tiempos de respuesta, entre otras tantas limitaciones, que imposibilitan incluso hacer las cosas más elementales.

Por eso, un dispositivo propio les permite algo que una app no les puede ofrecer: definir la experiencia de punta a punta, sin intermediarios. No para escalar ese producto mañana y vender millones de unidades, sino para observar qué funciona y qué no cuando la IA está realmente presente.

¿Para qué va a servir un dispositivo dedicado que no pretende reemplazar al smartphone? Varias cosas, como por ejemplo: consultas que hoy implican sacar el móvil, desbloquearlo, abrir una app, escribir o dictar, o asistencia en movimiento para ir de un sitio a otro sin tener que mirar el mapa.

También habilitará algo mucho más importante y trascendental, que el usuario probablemente ni lo note: poner a prueba comportamientos, hábitos y fricciones reales. Un dispositivo así también permite a OpenAI observar cuándo el uso es espontáneo, qué niveles de presencia se toleran y dónde aparecen los rechazos. Así podrán determinar con mejor precisión cuándo la IA ayuda, cuándo interrumpe y cuándo logra desaparecer.

recién después de todo esto, cuando la experiencia de millones de usuarios dé alguna respuesta, migrar todo eso a una capa de software integrada en lo que sea que usemos en ese momento.

Si bien visto visto desde afuera parece un rodeo innecesario algo que se sabe en la industria tech es que el hardware sirve para desbloquear aprendizaje, no para ganar mercado. El hardware no es el producto final, es el medio.

No hay que pensar ese aparato como “el iPhone de OpenAI”, sino como un experimento controlado para entender cómo debería sentirse la próxima interfaz antes de reconvertirla, nuevamente, en software puro y duro.