Tecnología para los negocios - Navegando por la “irregular frontera tecnológica”: La paradoja del trabajo asistido por IA


Navegando por la “irregular frontera tecnológica”: La paradoja del trabajo asistido por IA

Boston Consulting Group explora las ambigüedades del rendimiento laboral posibilitado por la IA, acuñando el término “frontera tecnológica irregular” para describir las áreas en las que la IA ayuda o dificulta la productividad.

Una investigación reciente llevada a cabo por The Boston Consulting Group (BCG) ofrece una visión matizada de las implicaciones para el rendimiento de confiar en herramientas de IA generativa como ChatGPT. En el exhaustivo estudio participaron más de 750 consultores divididos en tres grupos distintos, cada uno con distintos niveles de acceso a las tecnologías de IA, incluidas las versiones de ChatGPT potenciadas por GPT-3 y GPT-4.

Los investigadores establecieron una línea base de rendimiento asignando 18 tareas similares a los participantes. Se les pidió que completaran estas tareas con o sin la ayuda de herramientas de IA generativa. Los resultados fueron sorprendentes: Los asesores con IA completaron un 12,1% más de tareas de media, las completaron un 25% más rápido y ofrecieron resultados de una calidad significativamente superior.

Además, los beneficios de la IA se observaron en todo el espectro de habilidades. Los asesores por debajo de la media mejoraron sus resultados en un 43%, mientras que los asesores por encima de la media experimentaron un incremento del 17%. Sin embargo, el estudio también suscitó preocupación por la dependencia excesiva de estas tecnologías. Cuando se aplicaron a tareas “fuera de las limitaciones” de las capacidades establecidas de la IA, se produjo un descenso significativo del 19% en la resolución correcta de problemas entre los usuarios de la IA.

Los investigadores describieron un fenómeno que denominaron “frontera tecnológica irregular”. En esta frontera, la IA ofrece beneficios inconsistentes, a veces mejorando el rendimiento humano y a veces degradándolo. El estudio insta a los profesionales a estar atentos, ya que las capacidades de la IA, en rápida evolución y mal comprendidas, pueden conducir a un rendimiento subóptimo si se aplican mal.

Las conclusiones del Boston Consulting Group se hacen eco de un estudio similar realizado por la Universidad de Purdue. En él se descubrió que los ingenieros de software que utilizaban ChatGPT corrían el riesgo de aceptar respuestas inexactas, concretamente el 52% de las veces. Un sorprendente 77% de las respuestas también se consideraron verborreicas. Los participantes a menudo creían las respuestas incorrectas debido a su presentación exhaustiva y bien articulada.

 

Artículo del Diarioti.com

Danos tu opinión

1 Estrella2 Estrellas3 Estrellas4 Estrellas5 Estrellas (1 valoraciones, valoración media: 4,00 / 5)
Cargando...

¿Eres un proveedor de soluciones TIC y quieres aparecer en este portal?

¿Eres una empresa y no encuentras lo que estás buscando?


SUSCRÍBETE A NUESTRO NEWSLETTER

Recibe todas las novedades sobre las tecnologías de la información para empresas.

PARTNERS TIC

FacePhi
Ibercaja
Orion sgi
Dass-Kyocera
NitsNets
Orizon

COLABORADORES

Alicante Port
ITI
CENID
ANBAN
BlockchainFUE
Universidad de Alicante
Fundeun
AlicanTEC
COIICV