En el último par de años, la inteligencia artificial (IA) ha sido el “niño travieso” del mundo de los negocios, una tecnología con una conducta polémica y poco convencional que ha impactado, provocado y encantando a los públicos en todo el mundo. En el 2020, todo eso cambiará, pues se predice que la IA crecerá y se enfrentará a nuevas demandas en las áreas de responsabilidad, derechos y regulaciones.
Más allá de la IA ética está la IA responsable
Durante los últimos años, he enfocado mi trabajo en nuevas patentes de ciencia de datos para promover que la tecnología de IA se mantenga más a la defensiva, sea explicable y ética. En el 2020 habrá mayores expectativas respecto a los sistemas de IA responsables, debido principalmente a los ataques contra las nuevas aplicaciones de IA, así como al hecho de que continúan surgiendo regulaciones en torno a la explicación, transparencia y ética de la inteligencia artificial.
Los dispositivos médicos son una de las áreas más obvias. Un dispositivo médico como un marcapasos que se comercializa precipitadamente puede estar mal diseñado. Si ese dispositivo hace daño a la gente que lo utiliza, personas o grupos podrían demandar a la compañía que lo fabrica en caso de que se demuestre su falta de rigor.
De manera similar, habrá un castigo o sanción como respuesta para las compañías que consideren que la IA explicable y ética es opcional. “¡Uy! Nos equivocamos con un algoritmo y está teniendo un efecto dañino”, no será una noticia interesante sobre el mal uso de la IA, sino una llamada a la acción.
Es muy probable que en el 2020 habrá seguros para la IA ya que las compañías buscarán asegurar sus algoritmos de IA contra demandas de responsabilidad. El uso de blockchain u otras maneras de auditar el desarrollo y gobierno de los modelos será esencial para demostrar la diligencia debida en la creación, explicación y prueba de los modelos de IA.
Los grupos de defensa de la IA contraatacarán
¿Cuáles son los efectos de la IA que pueden ser dañinos? Piense en una persona a la cual se le niega el derecho de entrar a un país debido a un reconocimiento facial impreciso. O que recibe un mal diagnóstico generado por una tecnología robótica entrenada para buscar enfermedades. O que se le niega un préstamo porque un nuevo tipo de calificación de crédito basado en características no causales le otorga un puntaje bajo. O ser acusado erróneamente de un accidente automovilístico por la aplicación móvil de la compañía de seguros instalada en su teléfono. ¿Cuáles son los derechos de las personas cuando la IA les hace daño?
Actualmente, hay muchas maneras en que la gente recibe un trato injusto en nuestra sociedad, y también un número similar de grupos de defensa. Con la defensa de la IA, puede haber un constructo diferente, ya que los consumidores y sus grupos de defensa exigirán acceso a la información y al proceso que el sistema de IA utilizó para tomar decisiones. La defensa de la IA ofrecerá empoderamiento, pero también puede generar debates importantes entre los expertos para interpretar y seleccionar los datos, el proceso de desarrollo de modelos y la implementación.
La defensa de la IA es una idea radical, pero un concepto similar ya se ha utilizado con FICO® Score. Desde hace más de 30 años, los consumidores pueden consultar su FICO Score y los informes del buró de crédito que se generan con los datos proporcionados por este sistema. Si a alguien se le niega un crédito, el otorgante de ese crédito debe explicar por qué se negó. Si un consumidor piensa que alguna partida en su informe del buró de crédito es imprecisa, puede presentar una disputa para solicitar que se investigue y se retire.
¿Por qué debe regularse la IA?
Los líderes en muchas industrias tienen la opinión negativa de que las regulaciones gubernamentales inhiben la innovación. Con la IA, este prejuicio está lejos de ser real. Los reguladores y legisladores están intentando proteger a los consumidores contra los efectos negativos de la tecnología a través del Reglamento General de Protección de Datos de la Unión Europea, la Ley de Privacidad del Consumidor de California, y otros. Sin embargo, estos grupos a menudo realizan demandas de tecnología sobre las cuales tienen poco conocimiento.
Por otro lado, existen compañías que juran “Somos éticos, no hacemos nada malo con sus datos”, pero, sin una norma de responsabilidad, no podemos estar seguros de que así sea. Con estos dos extremos, y todo lo intermedio, se predice que en el 2020 veremos más normas internacionales que definirán un proceso para una IA más segura y confiable, ya que las regulaciones fomentan la honestidad de las compañías. Con esto se anticipa que los expertos en IA apoyarán y promoverán la regulación de la industria para garantizar la imparcialidad e inculcar la responsabilidad.
La experiencia es importante
Conforme la IA crece para convertirse en una tecnología más generalizada, se confía poco en la moral y ética de las muchas compañías que la utilizan. Como científico de datos, esto es desmoralizante. Sin embargo, a medida que la sociedad moderna descubre más sobre el daño que puede causar el uso incorrecto de la IA, resulta claro que la experiencia es importante. Es el momento de que la IA crezca.
Fuente: Global Media IT
¿Eres un apasionado por la Inteligencia Artificial (IA), y quieres aprender más acerca de ella? En EducaciónIT ofrecemos un curso de Machine Learning Fundamentos-Inteligencia Artificial, donde desarrollarás un perfil técnico mediante el cual comprenderás los desafíos sociales e industriales que la IA representa, sus correspondientes algoritmos, y muchos más.
- El teclado para ‘copiar y pegar’ código de Stack Overflow, una inocentada convertida en gadget (y ya en preventa) – 6 octubre, 2021
- Los papeles de Pandora: cómo Python y el aprendizaje automático han sido clave en una investigación mundial con datos masivos – 5 octubre, 2021
- China marca las directrices éticas de la IA nacional: un mayor control frente a los algoritmos de las grandes tecnológicas – 4 octubre, 2021
Deja una respuesta