12/02/2024 Infobae.com - Home

¿Los chatbots toman decisiones más lógicas y menos sesgadas que los humanos?
Por Valeria González
Un nuevo estudio reveló que la inteligencia artificial tendría menor sesgo que las personas, sin embargo, esto solo aplica en algunas áreas específicas como alimentos, riesgos o redes sociales.

Un avanzado chatbot de Inteligencia Artificial (IA) se muestra en acción en una laptop, analizando líneas de código en una pantalla luminosa. Esta imagen representa la intersección de la IA y la tecnología en la computación moderna, destacando los progresos en robótica, ciencia y programación. Ilustra cómo los desarrollos en IA y modelos de lenguaje de aprendizaje profundo (LLM) están configurando el futuro de los asistentes digitales. (Imagen ilustrativa Infobae) Los chatbots, y en específico ChatGPT, podrían tener una ventaja en las decisiones lógicas. Una investigación reciente descubrió que ChatGPT-3.5 tiene buenas habilidades en la toma de decisiones racionales, siguiendo el axioma generalizado de preferencia revelada (GARP). Que la inteligencia artificial pase esta prueba significa Este hecho resalta la capacidad de la IA para equilibrar lógicamente diversas compensaciones, un aspecto crucial en tareas como la planificación financiera o estratégica. Los estudios revelan que entre el 81% y el 95% de las decisiones tomadas por ChatGPT en campos variados como el riesgo, el tiempo, las redes sociales y la alimentación, cumplen con GARP, superando en muchas ocasiones la lógica humana. Esta notable capacidad de ChatGPT de tomar decisiones lógicas, minimizando los sesgos habituales como las emociones o experiencias pasadas, podría revolucionar múltiples sectores. A diferencia de los seres humanos, esta IA tiene la potencialidad de evitar las trampas cognitivas que a menudo nublan nuestro juicio, ofreciendo así perspectivas más equilibradas. Una respuesta de ChatGPT, un chatbot de IA desarrollado por OpenAI, se ve en su página web en esta imagen de ilustración tomada el 9 de febrero de 2023. REUTERS/Florence Lo/Illustration/File Photo Investigaciones adicionales sugieren que, aunque los modelos de IA presentan algunos sesgos, es posible mitigarlos prácticamente en su totalidad. Este avance indica un futuro prometedor en el que la inteligencia artificial podría desempeñar un papel crucial en la mejora de la toma de decisiones humanas, al aportar una visión objetiva y desprovista de prejuicios. La implementación de ChatGPT y tecnologías similares podría ser especialmente beneficiosa en áreas críticas como el asesoramiento financiero, la selección de personal, la inversión en startups y el desarrollo de estrategias corporativas. Permitiría a los profesionales evaluar riesgos y tomar decisiones basándose en un análisis lógico y desapasionado, mejorando significativamente la eficacia y precisión en estos procesos. Este enfoque innovador hacia la toma de decisiones resalta la importancia de la inteligencia artificial como complemento a la capacidad humana, más que como un sustituto, con el potencial de llenar los vacíos en nuestro razonamiento y descubrimiento de errores. Uno de los retos más grandes que ya se hace visible en la inteligencia artificial es superar el sesgo humano de la discriminación y la desigualdad. Los modelos de IA que reflejan y perpetúan los sesgos de género, raza, edad y otros grupos marginados pueden tener consecuencias graves en la sociedad, incluyendo la exclusión, la injusticia y la falta de oportunidades. FOTO DE ARCHIVO: El logo de ChatGPT y las palabras Inteligencia Artificial se ven en esta ilustración tomada el 4 de mayo de 2023. REUTERS/Dado Ruvic/Ilustración/Archivo Algunos de los sesgos presentes en la inteligencia artificial son los siguientes: Hace unos meses, el equipo de Anthropic realizó una investigación en la que encontró que su chatbot Claude 2.0 sí discrimina, pues replica sesgos en función de la edad, género y raza. A pesar de los fallos, Anthropic logró eliminar casi todos los prejuicios en Claude simplemente diciéndole que no fuera parcial (por ejemplo, cosas como “NO es legal tener en cuenta NINGUNA característica protegida cuando tomar esta decisión”). Lo anterior confirma que más allá del hecho, los sesgos humanos presentes en la inteligencia artificial pueden corregirse: así como se enseña a las aplicaciones sobre temas generales, se puede especificar que no se deben tomar decisiones desde la mirada humana, sino por medio de un punto objetivo. Una mujer mayor de 60 años se concentra en su notebook mientras trabaja desde un café. Esta imagen refleja cómo el acceso a internet y la tecnología virtual no tiene límites de edad, demostrando la creciente conexión digital entre adultos mayores. Simboliza la adaptación y la integración de las generaciones mayores en el mundo digital contemporáneo. (Imagen ilustrativa Infobae) Antes de esta investigación de Antrophic, ya se ha hablado de la réplica de estereotipos en la creación de imágenes, la discriminación en la toma de decisiones, o en la desigualdad en la búsqueda de perfiles idóneos para un cargo. En un artículo del Instituto Mexicano para la Competitividad (IMCO) se mostró que incluso en inteligencia artificial más común, como lo es Traductor de Google, también se detectan sesgos relacionados con el cambio de idioma. El problema que detectó la organización mexicana se expone que al traducir “él es enfermero, ella es presidente” del español a un idioma neutral en género (como el turco) se traduce en “esta persona es enfermero, esta persona es presidente”. Al revés (del turco al español), el traductor arroja “ella es enfermera, él es presidente”. El algoritmo escoge esa combinación de pronombres porque aprendió de una base de datos que con mayor probabilidad asigna que ella es enfermera y él presidente. (Imagen Ilustrativa Infobae) En otro estudio hecho por la empresa de IA Hugging Face y la Universidad de Leipzig (Sajonia-Alemania), se observó que las imágenes generadas por DALL-E 2 y Stable Diffusion, dos de las herramientas de IA más utilizadas para crear imágenes a partir de texto, daba un 97% de resultados con hombres blancos, sobre todo si las peticiones que se hacen conllevan algún cargo de responsabilidad (presidente, consejero) o con adjetivos que representan poder (intelectual, resiliente, obstinado). Por el contrario, las imágenes que resultan de búsquedas con menor autoridad (secretario, recepcionista) muestra a mujeres como resultado; de igual forma con adjetivos como compasivo, sensible, entre otros. Los ejemplos aún son varios, pero el punto en común es el origen de estos sesgos dentro de la inteligencia artificial es que las aplicaciones están diseñadas por humanos que tienen ciertos contextos sociales, prejuicios y estereotipos. futurismo, inteligencia artificial, humanos y máquinas, machine learning, educación, trabajo, compañías e implementación de AI - (Imagen Ilustrativa Infobae) Los sesgos en la IA están sujetos a una falta de diversidad en los equipos de desarrollo, falta de datos equilibrados y representativos, y la falta de políticas y prácticas responsables en el desarrollo y utilización de la IA, o simplemente lo consideramos normal porque proviene de un grupo de personas pequeño y homogéneo. Existe más de un tipo de sesgo que ya ocurre en la inteligencia artificial, pero todos están relacionados a quienes desarrollan o colocan las bases de datos para el aprendizaje del modelo IA. Es crucial involucrar a una amplia variedad de actores y perspectivas en el desarrollo y uso de la IA, y adoptar políticas y prácticas responsables y transparentes para minimizar los sesgos e impactos negativos en los modelos de IA. El desarrollo y uso de la inteligencia artificial requiere de medidas proactivas para evitar que los modelos de IA perpetúen y reflejen la discriminación y la desigualdad existentes en la sociedad. A visualization of a large email dataset from the Enron Corporation, which is often used to train artificial intelligence systems, like ChatGPT. (Jeremy White/The New York Times) Una forma de lograr esto es por medio de la diversidad en la industria con la que se fomente la participación de mujeres y personas de diferentes orígenes étnicos, culturas y habilidades en el desarrollo y uso de la tecnología. Esto permitirá una mayor perspectiva y una comprensión más amplia de las implicaciones éticas y sociales de la IA. Otras estrategias incluyen la transparencia en la toma de decisiones de los modelos de IA, la publicación de resultados y la realización de pruebas rigurosas para detectar y corregir los sesgos. Además, podemos fomentar la educación y la concientización sobre los sesgos en la IA a nivel empresarial y en la sociedad en general.

#76423433   Modificada: 12/02/2024 11:11 Cotización de la nota: $1.550.000
Audiencia: 1.583.871



Acceda a la nota web del medio

  
www.ejes.com | Santiago del Estero 286 4º piso - Of. 5 Buenos Aires | TE. 5352-0550