Ética en la IA

Ética en la IA

¿Si dejamos que un robot se controle a sí mismo y sea capaz de pensar, no puede llegar a ser peligroso? Esta pregunta es muy común entre toda la gente, pero ¿Hay alguna cosa que impida a los robots revelarse?

La Inteligencia artificial se basa en una serie de derechos humanos.Son diez principios básicos que establecen un enfoque de la ética de la IA centrado en los derechos humanos:


1. Proporcionalidad e inocuidad

El uso de sistemas de IA no debe ir más allá de lo necesario para alcanzar un objetivo legítimo. La evaluación de riesgos debe utilizarse para prevenir los daños que puedan derivarse de usos ilegítimos.


2. Seguridad y protección

Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deberían ser evitados y tomados en consideración.


3. Derecho a la intimidad y protección de datos

La privacidad debe protegerse y promoverse a lo largo de todo el ciclo de vida de la IA. También deben establecerse marcos adecuados de protección de datos.


4. Gobernanza y colaboración adaptativas y de múltiples partes interesadas

En el uso de datos, deben respetarse el derecho internacional y la soberanía nacional. La participación de diversas partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para el desarrollo de enfoques inclusivos de gobernanza.


5. Responsabilidad y rendición de cuentas


Los sistemas de IA deben ser auditables y trazables. Deben existir mecanismos de supervisión, evaluación de impacto, auditoría y diligencia debida para evitar conflictos con las normas de derechos humanos y amenazas al bienestar medioambiental.


6. Transparencia y explicabilidad

El despliegue ético de los sistemas de IA depende de su transparencia y explicabilidad (T&E). El nivel de T&E debe ser adecuado al contexto, ya que puede haber tensiones entre T&E y otros principios como la privacidad, la seguridad y la protección.


7. Supervisión y decisión humanas

Los Estados Miembros deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica a personas físicas o a entidades jurídicas existentes.


8. Sostenibilidad


Las tecnologías de IA deben evaluarse en función de su impacto en la "sostenibilidad", entendida como un conjunto de objetivos en constante evolución, incluidos los establecidos en los Objetivos de Desarrollo Sostenible (ODS) de Naciones Unidas.


9. Sensibilización y educación


La sensibilización y la comprensión del público respecto de la IA y el valor de los datos deberían promoverse mediante una educación abierta y accesible, la participación cívica, las competencias digitales y la capacitación, y la alfabetización mediática e información.


10. Equidad y no discriminación


Los actores de la IA deberían promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación, adoptando un enfoque inclusivo para garantizar que los beneficios de la IA sean accesibles para todos.

Imagen de <a href="https://pixabay.com/es/users/artsybeekids-392631/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=5665885">Venita Oberholster</a> en <a href="https://pixabay.com/es//?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=5665885">Pixabay</a>


Espero que después de leer esto reflexionéis y dejéis de tenerle miedo a las Inteligencias Artificiales, está claro que hay que observarlas y tener cuidado, pero nunca miedo.


Web Grafía

UNESCO

Publicar un comentario

0 Comentarios