¿Se puede entrenar a una herramienta de IA para que siga un código moral?

×
×
¿Estás seguro que deseas eliminar este contenido de tus favoritos?

01 NOV 2023

¿Se puede entrenar a una herramienta de IA para que siga un código moral?

 

Un reportaje publicado recientemente en Nature profundiza en los distintos métodos que se están investigando para tratar de evitar sesgos en los modelos de inteligencia artificial (IA), de modo que sus respuestas o comportamientos sean acordes con lo que se considera moralmente aceptable.
En el caso de los chatbots de IA, como ChatGPTo Bard, se han ido añadiendo reglas para evitar, por ejemplo, que ofrezcan respuestas con contenido racista o violento. Para alcanzar este objetivo, una de las técnicas consiste en que un pequeño número de personas escriban lo que consideran respuestas apropiadas a determinadas peticiones realizadas por usuarios. Y el modelo se vuelve a entrenar con estas respuestas.
Otra estrategia consiste en recurrir a modelos auxiliares, que se encargan de modificar los valores estadísticos de las palabras en los modelos de IA generativa para que los términos más éticamente alineados tengan más peso frente a los discriminatorios. Según el artículo, este ajuste es fácil de realizar y tiene un bajo coste.
 
 
La investigación en IA ética puede ayudar también a comprender el comportamiento de las personas
 
 
No obstante, el reportaje señala que el avance hacia una IA ética lleva implícito el debate sobre quién debe asumir el papel de árbitro de la moral, puesto que no siempre es fácil determinar si un comportamiento es poco ético. Por ello, la investigación en este ámbito implica no solo a informáticos, sino también a neurocientíficos y filósofos.
Seguir un código moral no es solo un problema de la IA, sino que tiene que ver con la gobernanza de la sociedad. En este sentido, una aproximación para mejorar las herramientas de IA consiste en que aprendan a través de la observación del comportamiento humano. Con este objetivo se ha entrenado una red neural con una base de datos de dilemas éticos. El modelo consigue aprender valores humanos, pero también ha necesitado de ajustes para evitar sesgos.
El artículo concluye que los avances para dotar de valores morales a las herramientas de IA pueden también ayudar a comprender los mecanismos que rigen los distintos comportamientos éticos y los prejuicios en las personas.
Referencia
Savage N. How robots can learn to follow a moral code [published online ahead of print, 2023 Oct 26]. Nature. 2023;10.1038/d41586-023-03258-1. doi:10.1038/d41586-023-03258-1
OAD-ES-AMG-0001
 

×
Proceso de indentificación vía OWA
Estamos validando tus datos, en las próximas 48h el equipo de OWA (One Key authentication) se pondrá en conctacto contigo para finalizar el proceso de registro.
×
Necesitamos validar tus credenciales:
Para poder validar tus datos mediante OWA, necesitamos que modifiques tus datos haciendo clic AQUÍ
¡Muchas gracias!