El artículo refuta la creencia común de que los modelos de lenguaje grandes (LLMs) son costosos, argumentando que los costos de inferencia han disminuido significativamente y son en realidad más baratos que muchos servicios de búsqueda web.
Se comparan los costos de uso de LLMs con servicios de búsqueda web, encontrando que las LLMs pueden ser 25 veces más económicas que servicios de búsqueda como Bing o Google para ciertas consultas.
El artículo sugiere que la percepción de los altos costos de los LLMs puede deberse a un malentendido sobre la evolución rápida de sus costos, que han disminuido drásticamente en los últimos años.
Se aborda la preocupación de que los precios bajos puedan ser insostenibles o subsidiados, argumentando que muchas APIs son rentables y que las empresas no estarían dispuestas a perder dinero deliberadamente en estas tarifas.
Se argumenta que el verdadero problema de costos no está en las LLMs, sino en los servicios de backend que los agentes AI podrían necesitar, planteando preocupaciones sobre la viabilidad económica y ambiental en un futuro próximo.
Get notified when new stories are published for "🇪🇸 Hacker News Espanyol"