Pablo Castillón: “En la industria, los modelos de IA con prejuicios son una posibilidad y deben evitarse”

Aylin Ríos, de Reforma, discute con nuestro fundador y CEO sobre los modelos de reconocimiento facial de la IA, su ética y el riesgo de sus prejuicios.

 

 
dplnews_reconocimiento_facial_as081019
 
 

Usar incorrectamente el reconocimiento facial, una de las tecnologías más utilizadas actualmente, abre la posibilidad de discriminación, violación de derechos humanos y afecta la presunción de inocencia, alertaron expertos. 

Algunos de los modelos de “deep learning” para reconocimiento facial pueden haber sido entrenados usando bases de datos con prejuicios, lo cual hace que los algoritmos de software sean discriminatorios. 

“Los modelos de inteligencia artificial con prejuicios son un peligro que debe ser identificado y evitado”, concluyó Castillón. 

Fuente: Periódico Reforma (puede leer aquí la versión original digital). 

 

 

Compartir:
Algotive encabeza la creación de las primeras plataformas autónomas de inteligencia artificial del planeta, en beneficio de la humanidad. Algotive y el logotipo de Algotive son marcas registradas de Algotive. Otros nombres de productos y empresas pueden ser marcas registradas de sus respectivos propietarios.