in

¿Tiene ética la inteligencia artificial?

AI e1552517943315 ¿Tiene ética la inteligencia artificial?

En 2016, Microsoft lanzó un chatbot diseñado para interactuar con personas a través de Twitter. Habilitado con una rutina de inteligencia artificial que analizaba el habla, se suponía que el bot mostraría cómo las máquinas podían imitar la comunicación humana. Desafortunadamente, Microsoft tuvo que eliminar el bot cuando comenzó a tuitear comentarios racistas y sexistas; su motor de inteligencia artificial se inundó con discursos de odio de bromistas y otros malos actores en línea. Ahora bien, la rutina de la inteligencia artificial en sí no era ciertamente sexista ni racista, simplemente imitaba el habla en función de los datos que recibía. Estoy seguro de que este incidente dio lugar a muchas bromas sobre cómo las máquinas habilitadas por IA se convertirán en genios malvados empeñados en subyugar a la humanidad. Pero creo que lo que realmente demuestra es que la verdadera amenaza en nuestra generación actual de IA no es la IA, somos nosotros mismos.

Anteriormente escribí sobre cómo el temor de que las máquinas con inteligencia artificial hagan que el trabajo humano sea irrelevante es infundado. En resumen, si bien los humanos no son tan rápidos o precisos como las computadoras cuando se trata de analizar datos, las computadoras no son rivales para nosotros cuando se trata de la aplicación informada de ese análisis, creatividad, pensamiento lateral e inteligencia emocional. Poseemos un pensamiento crítico y una experiencia que las computadoras de hoy en día simplemente no pueden replicar. Del mismo modo, las computadoras no tienen la capacidad de pensamiento ético que tienen los humanos. A pesar de su sofisticación, la IA al final del día es solo otra herramienta. Y como cualquier herramienta, no tiene ética, pero puede usarse para realizar cosas poco éticas cuando la maneja una persona poco ética, sin escrúpulos o simplemente ignorante. Sin embargo, lo más común es que la IA se desempeñe de manera poco ética porque no ha sido entrenada adecuadamente.

Tomemos, por ejemplo, los sistemas de visiones impulsados ​​por IA. Una investigación reciente reveló que una popular plataforma de software de reconocimiento facial tenía «tasas de error mucho más altas en la clasificación del género de las mujeres de piel más oscura que de los hombres de piel más clara». ¿Es la IA racista? No, pero reproduce los sesgos institucionales inherentes a la sociedad. En este caso, los modelos de entrenamiento utilizados para instruir al algoritmo de IA para identificar rostros estaban compuestos principalmente por rostros masculinos blancos. En consecuencia, el algoritmo funcionó mejor identificando las caras con las que tenía más experiencia. Ahora imagine que las fuerzas del orden utilizan esta tecnología de visión habilitada por inteligencia artificial para escanear multitudes en espacios públicos concurridos en busca de un criminal buscado. Si ese criminal fuera una persona de color, las posibilidades de que la IA identificara incorrectamente a una persona de color inocente como el criminal serían mayores que las de un criminal blanco.

El autor de ciencia ficción Isaac Asimov desarrolló las tres leyes de la robótica. Las leyes establecen un marco ético simple sobre cómo los robots deben interactuar con los humanos, y las leyes están fijadas de manera inalterable en el cerebro positrónico del robot (también conocido como IA); no se pueden pasar por alto. En su totalidad, las leyes son:

• Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
• Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
• Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Con esas reglas en vigor, los humanos podrían estar seguros de que sus interacciones con los robots serían seguras. Incluso si un humano hubiera ordenado al robot que causara daño a otro humano, su «conciencia digital» impediría que llevara a cabo la orden.
Creo que debería aplicarse un código de ética similar al desarrollar la IA. Los científicos de datos y los profesionales de TI deberán revisar los resultados del análisis de su algoritmo de IA no solo para determinar la precisión, sino también para la aplicación justa y ética de ese análisis.

Si bien esto requerirá mucho trabajo y colaboración entre las empresas, el mundo académico y los usuarios finales, es fundamental que adoptemos dispositivos de seguridad éticos al aplicar la tecnología de inteligencia artificial en nuestra vida diaria. La IA se está desarrollando rápidamente y los riesgos de que pueda permitir un comportamiento poco ético por parte de sus usuarios, incluso sin intención, son reales. Estas cajas de seguridad deben definirse ahora para que puedan usarse para administrar el rendimiento de las aplicaciones de inteligencia artificial en el futuro.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Wouter van Kempen 10 cosas que no sabías sobre el CEO de DCP Midstream, Wouter van Kempen

10 cosas que no sabías sobre el CEO de DCP Midstream, Wouter van Kempen

Bruce E Grewcock 10 cosas que no sabías sobre el CEO de Peter Kiewit Sons, Bruce E. Grewcock

10 cosas que no sabías sobre el CEO de Peter Kiewit Sons, Bruce E. Grewcock