Ítem
|
Observatori d’Ètica en Intel·ligència Artificial de Catalunya
Sabater, Albert Manuel, Alicia de |
|
| juny 2022 | |
|
El present document representa una guia d’implementació i autoavaluació
per a organitzacions amb dos objectius clars: d’una banda, sensibilitzar als diferents agents de la quàdruple hèlix, és a dir, la presència dels quatre pilars clau en qualsevol procés innovador: universitats i centres de recerca, administració pública, teixit empresarial, i ciutadania, que utilitzen dades i sistemes d’intel·ligència artificial, sobre la importància d’adoptar principis ètics fonamentals per minimitzar riscos coneguts i desconeguts i maximitzar oportunitats. I d’altra banda, identificar accions adequades o inadequades a través d’una proposta d’autoavaluació basada en principis, indicadors i observables per valoritzar, recomanar i avançar en l’ús ètic de dades i sistemes d’intel·ligència artificial. Aquests objectius parteixen d’un fet incontestable, que és la proliferació de productes i serveis que utilitzen sistemes d’IA. Davant d’això, el públic ha d’assegurar-se que els sistemes d’IA són, entre altres, justos, explicables i segurs, i que les organitzacions que els implementen són transparents i responsables. El model PIO és un pas més per avançar en aquesta direcció ja que proporciona una integració de la teoria a la pràctica de principis ètics fonamentals de la IA El presente documento representa una guía de implementación y autoevaluación para organizaciones con dos objetivos claros. Por un lado, sensibilizar a los diferentes agentes de la cuádruple hélice, es decir, la presencia de los cuatro pilares clave en cualquier proceso innovador: universidades y centros de investigación, administración pública, tejido empresarial, y ciudadanía, que utilizan datos y sistemas de inteligencia artificial, sobre la importancia de adoptar principios éticos fundamentales para minimizar riesgos conocidos y desconocidos y maximizar oportunidades. Y por otro lado, identificar acciones adecuadas o inadecuadas a través de una propuesta de autoevaluación basada en principios, indicadores y observables para poner en valor, recomendar y avanzar en el uso ético de datos y sistemas de inteligencia artificial. Estos objetivos parten de un hecho incontestable, que es la proliferación de productos y servicios que utilizan sistemas de IA. Ante esto, el público tiene que asegurarse que los sistemas de IA son, entre otros, justos, explicables y seguros, y que las organizaciones que los implementan son transparentes y responsables.El modelo PIO es un paso más para avanzar en esta dirección puesto que proporciona una integración de la teoría a la práctica de principios éticos fundamentales de la IA This document represents an implementation and self-assessment guide for organisations with two clear objectives. On one side, to raise awareness among the different agents of the quadruple helix, i.e. the presence of the four key pillars in any innovative process: universities and research centres, public administration, business fabric, and citizens, who use data and artificial intelligence systems, of the importance of adopting fundamental ethical principles to minimise known and unknown risks and maximise opportunities. On the other side, to identify appropriate or inappropriate actions through a self-assessment proposal based on principles, indicators and observables for assessing, recommending and advancing the ethical use of data and artificial intelligence systems. These objectives are based on the indisputable fact that there is a proliferation of products and services using AI systems. In response, the public needs to be assured that AI systems are, among other things, fair, explainable and safe, and that the organisations implementing them are transparent and accountable. The PIO model is a further step in moving in this direction as it provides a theory-topractice integration of fundamental ethical principles of AI |
|
| application/pdf | |
| http://hdl.handle.net/10256/28523 | |
|
cat spa eng |
|
| Universitat de Girona. Observatori d’Ètica en Intel·ligència Artificial | |
| Attribution-NonCommercial 4.0 International | |
| http://creativecommons.org/licenses/by-nc/4.0/ | |
|
Intel·ligència artificial -- Aspectes ètics i morals
Artificial intelligence -- Moral and ethical aspects |
|
| El model PIO (Principis, Indicadors i Observables): una proposta d’autoavaluació organitzativa sobre l’ús ètic de dades i sistemes d’intel·ligència artificial = El modelo PIO (Principios, Indicadores y Observables): una propuesta de autoevaluación organizativa sobre el uso ético de datos y sistemas de inteligencia artificial = The PIO model (Principles, Indicators and Observables): a proposal for organisational self-assessment on the ethical use of data and artificial intelligence systems | |
| info:eu-repo/semantics/report | |
| DUGiDocs |
