Icono del sitio Cápsula Virtual

El 40% de los trabajadores españoles preferiría que una inteligencia fabricado tomara las decisiones en su espacio, según un estudio | Tecnología


En poco más de cuatro meses, ChatGPT ha conseguido hacerse un hueco en la rutina de muchos usuarios de internet, ya sean estudiantes o trabajadores. Puede que muchos no tengan claro qué tecnología lo sustenta o por qué un millar de expertos ha pedido frenar durante unos meses la actividad del software. Sin retención, se está asumiendo con tal ciudadanía la presencia de la inteligencia fabricado en nuestras tareas cotidianas que, según un estudio pulido por Oracle, empresa de plataformas y aplicaciones en la nubarrón, el 40% de los españoles preferiría que los algoritmos tomaran decisiones por él.

En el noticia The Decision Dilemma (el dilema de la audacia), publicado este miércoles, se recogen datos de más de 14.000 empleados y líderes empresariales de 17 países, incluido España. Frente al problema de la saturación de los datos, el 45% de los jefes en nuestro país preferiría que todas las dificultades derivadas de ello desaparecieran y que una inteligencia fabricado tomara las decisiones en su espacio. A Javier Regato Gallardo, profesor del Área de Ingeniería del Software e Inteligencia Sintético de la Universidad Complutense de Madrid, le sorprenden estas cifras: “Me parece que muestran una confianza muy entrada en la inteligencia fabricado (IA), cuando, en ingenuidad, en la sociedad no tenemos muy claro qué es y cómo funciona y nos llegan a hastiar por ser muchas herramientas o complejas”, explica. A nivel completo, el porcentaje de personas que delegarían en algoritmos es del 64%; y del 70% si nos referimos a los líderes empresariales.

Entre las conclusiones extraídas por la compañía estadounidense, destaca que para el 73% de los 1.000 españoles encuestados, el número de decisiones que toma cada día se ha multiplicado por 10 en los últimos tres primaveras y, cuando tratan de tomar una audacia, el 85% se siente bombardeado por más datos de fuentes más distintas que nunca. Del mismo modo, el 82% afirma que el convexidad de datos está dificultando mucho la toma de decisiones en su vida personal y profesional y el 59% admite que más de una vez al día no sabe qué audacia tomar. A pesar de la ansiedad que puede originar a las personas el convexidad de datos y la dificultad para procesar tanta información, el profesor de informática explica que “debemos entender mucho mejor qué implicaciones tendría dar paso de que los algoritmos de inteligencia fabricado tomen decisiones sensibles por nosotros”, puesto que nos podríamos montar a advertir devaluados o alienados.

Regato insiste en que, aunque las herramientas como ChatGPT pueden ayudarnos a resolver muchas tareas, “no están diseñadas específicamente para la toma de decisiones y no sería adecuado delegarlas en ellas; al menos, si se comercio de decisiones importantes para nosotros, que involucren a otras personas o que puedan afectar seriamente al medio que nos rodea”.

El estudio señala que para el 81% de los españoles la incapacidad para tomar decisiones tiene un impacto placa en su calidad de vida y causa picos de ansiedad (43%), pérdida de oportunidades (25%) y gastos innecesarios (19%). Delante la saturación de información y las dificultades para discernir las fuentes dignas de confianza, el 94% de los encuestados ha cambiado su forma de tomar decisiones en los últimos tres primaveras. Eso sí, según el 81% de los líderes empresariales, a menudo se toma primero la audacia y posteriormente se buscan los datos para justificarla. Y, adicionalmente, el 24% de los empleados incluso siente que muchas decisiones tomadas en su empresa son irracionales. Según indica Albert Triola, director genérico de Oracle España, “los líderes empresariales que toman decisiones críticas sobre la mandato de sus empresas y no tienen en cuenta los datos, están corriendo un gran aventura”.

Javier Regato reitera que delegar decisiones sensibles a una inteligencia fabricado es un asunto arduo y, para ello, la IA debe ser transparente y ‘auditable’. “Se deben poder revisar y entender las decisiones que toma y los criterios que la guían, debe ser predecible porque eso nos permite conocer qué podemos esperar y debe existir la posibilidad de determinar la responsabilidad en caso de que surjan problemas. Si las decisiones tienen un sentido honesto, es arduo delegarlas en una IA porque no hay una honesto única universal y hay que tener en cuenta que, en la mayoría de los casos, los sistemas aprenden de datos y que, luego, pueden reproducir sesgos y perpetuar los que no consideramos éticos o que son incluso ilegales”, añade.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para percibir nuestra newsletter semanal.



Creditos a Clara Mesto

Fuente

Salir de la versión móvil