TN

Temas de hoy:

  • Javier Milei
  • Juicio por YPF
  • Frío extremo
  • Tragedia en Villa Devoto
  • Dólar hoy
  • Tensión entre el Gobierno y las provincias
  • Elecciones 2025
  • Cumbre del Mercosur
  • Copa Argentina
  • Tecno
  • Ingresar
    EN VIVO
    tnTecnoNovedades

    Espejitos de colores: su Inteligencia Artificial eran 700 ingenieros que tipeaban respuestas desde la India

    La londinense Builder.ai había alcanzado una valuación de 1.500 millones de dólares y atrajo a gigantes de la industria.

    04 de junio 2025, 11:54hs
    El asistente de IA de la startup, llamado Natasha, no era realmente un sistema automatizado. (Foto: Creada con ChatGPT)
    El asistente de IA de la startup, llamado Natasha, no era realmente un sistema automatizado. (Foto: Creada con ChatGPT)
    Compartir

    “Crear una aplicación es tan fácil como pedir una pizza”. Aquel era uno de los lemas de Builder.ai, una startup londinense que había sido sensación en el negocio de la Inteligencia Artificial y que recientemente se declaró en bancarrota. Una de las variables que explica la caída es realmente curiosa: las respuestas de su chatbot, supuestamente automatizadas, eran escritas por 700 ingenieros en una oficina ubicada en La India.

    Así fue el engaño de Builder.ai

    Fundada en el año 2016, esta empresa promocionó soluciones potenciadas con IA para desarrollar softwares. Según recoge The Telegraph, antes de que se levanten las sospechas, Builder.ai fue una sensación mediática y una de las grandes promesas entre las corporaciones británicas. La firma había conseguido una valuación de 1.500 millones de dólares y atraído a inversores de renombre, entre ellos Microsoft.

    "Hacemos que desarrollar una app sea tan fácil, que cualquiera puede hacerlo", se lee en el sitio oficial de Builder.ai, aún en línea. (Foto: Captura)
    "Hacemos que desarrollar una app sea tan fácil, que cualquiera puede hacerlo", se lee en el sitio oficial de Builder.ai, aún en línea. (Foto: Captura)

    La propuesta de la compañía radicada en Londres era seductora: eran parte de la nueva oleada de herramientas que inyectan IA en las tareas de programación. Al respecto, decían que sus tecnologías permitían ensamblar aplicaciones como si se tratase de bloques de Lego, y que ayudaban a traducir ideas en apps en tiempo récord. Su chatbot era la cara visible de esas funcionalidades, tal como subraya Genbeta.

    El 20 de mayo, se declaró en bancarrota. Además de inconsistencias en sus registros contables, se supo que su asistente virtual, llamado Natasha, no era realmente un sistema automatizado, sino una interfaz vacía, apenas una fachada. En lugar de soluciones puramente sintéticas, detrás de esa herramienta había más de 700 empleados haciendo el trabajo a mano, en La India.

    Leé también: Un informe reveló que 9 de cada 10 empleados usa inteligencia artificial en su trabajo: qué dicen las empresas

    En concreto, cuando Natasha recibía una solicitud, los desarrolladores humanos se encargaban manualmente del proceso que supuestamente era automatizado. Siguiendo a la fuente, en realidad era “externalización encubierta”.

    Las sospechas sobre Builder.ai no son nuevas

    Lo cierto es que el escrutinio sobre Builder.ai comenzó hace algunos años. Ya en el 2019, un informe publicado en The Wall Street Journal había revelado que la startup dependía más de tareas manuales que de algoritmos. En la ocasión, empleados de la organización habían señalado que, con ese modus operandi, los resultados solían ser defectuosos y mal estructurados.

    En ese marco, había sido despedido Robert Holdheim, cuando el exdirectivo reveló que la tecnología de la compañía “no funciona como se promociona” y que “esencialmente era una ilusión”.

    Leé también: Los directivos de las empresas se clonan con Inteligencia Artificial para aliviar su carga laboral

    El declive de Builder.ai se profundizó el año pasado, cuando una firma que otorgó un préstamo realizó un embargo tras la detección de irregularidades financieras. Además, en La India se congelaron fondos de la empresa en el marco de una investigación por supuestamente haber inflado hasta un 300% sus ingresos a fin de atraer inversores.

    Cómo hizo Builder.ai para engañar incluso a Microsoft

    “En el mundo de las inversiones, cuando el que invierte es un gigante que tiene dinámica de gigante, como Microsoft, eBay, etc., las decisiones no son necesariamente “lógicas”, explicó a TN Tecno Daniel Stilerman, especialista en inteligencia artificial.

    “Es posible que no no hayan hecho bien un proceso que se llama due dilligence que en castellano podríamos decir que es una especie de auditoría, pero que es muy frecuentemente hecho por gente que no es experta. Abundan las historias de compañías que se compraron, aunque era todo mentira", expresó Stilerman.

    En el caso de Builder.ai el especialista aclaró que hubo un intento activo y a propósito de mentir: “Hicieron algo llamado facturación circular, donde le pedís a una compañía que te facture cosas y vos le facturas cosas a ellos, de manera que si no auditás no te das cuenta y crees que facturan mucho más de lo que facturan de verdad”, explicó

    Las más leídas de Tecno

    1

    Desarrollaron una inteligencia artificial que predice cuándo una persona puede sufrir un paro cardíaco

    2

    Este es el electrodoméstico que no debés usar durante una ola polar

    3

    La Justicia confirmó que las imágenes de abuso infantil generadas con IA son delito y sentó un precedente

    Por 

    Rodrigo Álvarez

    4

    Cuál es el signo que estará más feliz en julio 2025, según la IA

    5

    Le robaron su celular, se quedó con el teléfono del ladrón y se “vengó” de la peor manera

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Inteligencia artificialempresas

    Más sobre Tecno

    Cuál es el signo que estará más feliz en julio, según la IA. (Foto: ChatGPT)

    Cuál es el signo que estará más feliz en julio 2025, según la IA

    Crece el uso de la Inteligencia Artificial en consultas de salud: ¿es ChatGPT más confiable que un médico? (Imagen generada con IA)

    Desarrollaron una inteligencia artificial que predice cuándo una persona puede sufrir un paro cardíaco

    La Justicia confirmó que las imágenes de abuso sexual infantil generadas con IA son delito. (Imagen: GeminiAI)

    La Justicia confirmó que las imágenes de abuso infantil generadas con IA son delito y sentó un precedente

    Por 

    Rodrigo Álvarez

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Demandan a Santiago del Estero ante la Corte por el daño ambiental de un canal donde se ahogaron 250 animales
    • Iba al profesorado en bicicleta, la atropelló una 4x4 y el conductor se escapó: pide ayuda para identificarlo
    • Un hombre asesinó a su familia, los enterró en el patio y no se supo más nada de él desde hace casi 15 años
    • El PRO organiza una cumbre este viernes para votar si acepta la alianza con La Libertad Avanza en la Provincia

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Mundial de Clubes
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad
    • Juegos

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit