Usar ChatGPT en las contabilidad tiene sus riesgos (y no son pocos)

La adopción de ChatGPT (todo el mundo habla pomposamente de herramientas de inteligencia artificial pero luego todo acaba en ésta) está siendo cada vez más común en asesorías, pymes y gestorías. Sin embargo, su uso en tareas contables conlleva una serie de peligros que no se pueden subestimar porque nos conducen a errores contables, brechas de privacidad, dependencia técnica y ausencia de responsabilidad legal.

Las alucinaciones

Los modelos de lenguaje tipo ChatGPT pueden generar información convincente pero falsa, fenómeno conocido como “alucinación”. En contabilidad, estas alucinaciones pueden causar graves problemas:

  • Wikipedia señala que estas alucinaciones ocurren con frecuencia y que los LLM “inventan información por completo, pero se comportan como si se tratara de hechos”.
  • En auditoría contable se advierte que la dependencia sin supervisión puede provocar errores como confundir ingresos por intereses con ingresos por ventas.
  • En un estudio académico sobre fórmulas en hojas de cálculo, se concluyó que cuando la información es incierta o compleja, ChatGPT “produce declaraciones falsas y alucinaciones” que subvierten la precisión del trabajo contable.

Imagínate que ChatGPT genera una clasificación errónea de gastos o fabrica importes que parecen coherentes pero están basados en patrones previos y no en los datos reales de la empresa. El resultado: conciliaciones bancarias incorrectas, modelos tributarios mal calculados y riesgo de sanciones por parte de Hacienda.

¿Y quién va a pagar eso, ChatGPT?

Sus términos y condiciones dice clarísimamente que

Los servicios se prestan «tal cual». En la medida en que lo permita la ley, salvo que se indique expresamente en el acuerdo, OpenAI y sus afiliados y licenciantes no ofrecen garantías de ningún tipo, ya sean expresas, implícitas, legales o de otro tipo, incluidas las garantías de comerciabilidad, idoneidad para un uso concreto o no infracción.

¿Y FacturaTech no usa ChatGPT?

Tajantemente no.

En Facturatech no usamos un LLM para interpretar las facturas sino otra de las formas de inteligencia artificial que es el procesamiento de lenguaje natural. Lo hacemos con un motor propio que desarrollamos durante varios años antes de lanzar comercialmente el programa. 

Cuando instalamos un programa en el ordenador del cliente, incluimos este motor de procesamiento de lenguaje natural de forma que todo el tratamiento de datos se hace en el propio ordenador y así no hay riesgos de protección de datos personales de ningún tipo y, al no ser un LLM, no puede producir alucinaciones.

Es tu decisión

La próxima vez que te llame un comercial para venderte una maravillosa automatización en la nube de no sé qué tareas, respira hondo y luego ya decides si quieres vivir la vida con tranquilidad o lanzarte barranco abajo. Tú decides.

Riesgos de ChatGPT en la contabilidad
Riesgos de ChatGPT en la contabilidad