Sign In

Identifier

Event

Language

Presentation type

Topic it belongs to

Subtopic it belongs to

Title of the presentation (use both uppercase and lowercase letters)

Presentation abstract

En los últimos años es cada vez más notoria la presencia de la inteligencia artificial (IA) en numerosas esferas y actividad de la vida humana. La IA ofrece enormes potencialidades para la realización de tareas complejas y, al mismo tiempo, presenta una serie de consecuencias que pueden ser abordadas como controvertidas y problemáticas. La Comisión Europea (CE) es consciente de esta situación y así lo ha demostrado en diversas ocasiones, como testimonian numerosos documentos y programas. En este sentido, la CE reclama una IA confiable planteada sobre un conjunto de principios éticos entre los que destaca la explicabilidad. Para responder a este reclamo resulta fundamental arrancar el compromiso de los expertos involucrados en el ámbito de los intelectos sintéticos para garantizar unos conocimientos científicos más accesibles y comprensibles por parte de la ciudadanía. El desarrollo de la IA es sumamente complejo y por este motivo es importante articular un entorno comunicativo que facilite la comprensión de la ciudadanía. La interacción con los usuarios puede ser una respuesta viable a través del impulso a un modelo de comunicación social de la ciencia que ponga en valor la esfera pública como un espacio de encuentro entre los expertos y la ciudadanía. Rompiendo de ese modo los enfoques que privilegian una brecha entre quienes crean, regular y emplean la IA. El fortalecimiento de las habilidades comunicativas de la ciencia y la interacción social suponen los dos pilares fundamentales de un modelo de comunicación científica que puede responder a los reclamos de la CE para generar un ecosistema confiable de IA y, al mismo tiempo, cultivar habilidades y prácticas cívicas en un contexto democrático.

Long abstract of your presentation

El enorme potencial de la inteligencia artificial (IA) es cada vez más notorio en diversos ámbitos de la vida humana. Esta situación responde al importante soporte que ofrecen los intelectos sintéticos en actividades que destacan por su gran complejidad, como las finanzas, la industria, la medicina o el derecho, entre otras. La Comisión Europea (CE) es conocedora de esta situación y reclama el impulso de un ecosistema de IA confiable, como una medida de garantía para una gobernanza tecnológica que promueva un desarrollo humanocéntrico, en términos de bienestar y calidad de vida.

Al mismo tiempo, el interés de la CE para la generación de un ecosistema donde la confianza cobre importancia, exige la implicación de los expertos en IA para hacer los conocimientos sobre esta tecnología más comprensibles y accesibles a la ciudadanía. Esta exigencia es planteada situando al principio ético de la explicabilidad como un pilar fundamental para el desarrollo y la gobernanza de los sistemas artificiales. El interés de la CE en la explicabilidad ha quedado demostrado en numerosas ocasiones, como puede observarse en el Programa Marco de Investigación e Innovación de la Unión Europea, Horizon 2020 (2015) y en los documentos Statement on Artificial Intelligence, Robotics and “Autonomous” Systems (2018), del European Group on Ethics in Science and New Technologies, Ethics guidelines for trustworthy AI (2019), del Grupo de expertos de alto nivel sobre IA, y en el Libro Blanco sobre inteligencia artificial (2020). No obstante, este interés y reclamo para la generación de un ecosistema confiable, requiere, a su vez, un compromiso por parte los expertos, gestores técnicos y políticos involucrados en el ámbito de la IA. 

Este compromiso responde a tres razones: el valor de los testimonios y la participación de los afectados, como mecanismo de inclusión y fortalecimiento democrático; en segundo lugar, la naturaleza pública de los fondos que financian, mayormente, el desarrollo de la IA en Europa; y, en tercer lugar, un razón pragmática vinculada a la utilidad que presenta la participación de la ciudadanía en aspectos relacionados con la ciencia, en términos de evaluación, anticipación, formación y reducción de la probabilidad de errores (Fiorino, 1990). Estas razones ponen de relieve la importancia que simboliza la participación ciudadana para el desarrollo de la ciencia y la tecnología en un contexto democrático. Además, sirven para destacar un aspecto esencial para responder a los reclamos de cultivo de confianza, es decir, para promover un compromiso con el establecimiento de un hilo comunicativo con la ciudadanía como una estrategia de explicabilidad y comprensión científica. Illah Nourbakhsh (2009) afirma que la retórica empleada por los investigadores presenta una importante relevancia moral que configura el modo de interactuar con la ciudadanía. Diversos estudios que abordan las actitudes del público hacia los intelectos sintéticos, confirman la tesis de Nourbakhsh (Palmisciano, P., et al. 2020; Vasiljeva, T., Kreituss, I. y Lulle, I., 2021; Young MD., et al., 2021; Layard Horsfall, et al., 2021).

A pesar de vivir un momento histórico con un gran desarrollo de redes de conexión digital, la comunicación efectiva entre las personas no siempre está garantizada (Domingo Moratalla, 2021). En el ámbito de la IA, este fenómeno puede ocasionar una brecha entre los expertos y los usuarios, por este motivo, resulta fundamental poner en valor la esfera pública como un espacio que permite articular mecanismos para facilitar la comprensión de conocimientos, como una medida de explicabilidad, e incluir a diversos grupos de interés para un escrutinio ético (Joss, 2022) y un ejercicio de transparencia (Larsson y Heintz, 2020).

Según Cecilie Glerup y Maja Horst (2014), las actitudes comunicativas de la ciencia se formulan a partir de las siguientes racionalidades políticas: demarcación, reflexividad, contribución e integración. En estela de lo que viene planteándose aquí sobre la pertinencia de una mejora de las habilidades comunicativas para responder al principio ético de la explicabiilidad, es preciso señalar que las actitudes de la contribución y la integración, suponen dos aspectos a tener en cuenta para la articulación de una propuesta de ciencia interactiva. En primer lugar, por cultivar un espíritu cívico en la ciencia, al esperar de ésta su implicación para responder a las preferencias públicas manifestadas por la ciudadanía y sus instituciones; y, en segundo lugar, por construirse sobre la premisa de un trabajo conjunto de los actores de la ciencia y la sociedad.

José Antonio López Cerezo (2005) valora la creciente importancia pública que se le ha concedido a la ciencia y la tecnología como un recurso político de poder y legitimación. Al mismo tiempo, precisa que la mayoría de las ocasiones se promueve una visión lineal de la comunicación científica situada en la estela de un modelo de déficit científico que integra una perspectiva determinista y piramidal que privilegia los enfoques top-down (Hishiyama, 2012). Por estos motivos, plantea un modelo interactivo de comunicación que desafía la visión pasiva del proceso de enculturación científica. Observa a la ciudadanía como un potencial elemento en el proceso comunicativo y defiende la apropiación social de los contenidos. Este modelo ofrece una oportunidad para la generación de un espacio para el encuentro público y la deliberación. Su propuesta se sitúa en la senda del modelo CUSP (siglas en inglés de Critical Understanding of Science in Public) (Perrault, 2013).

En definitiva, el reclamo de la CE para impulsar un ecosistema de IA confiable sobre el principio ético de la explicabilidad, puede satisfacerse a través de un modelo comunicativo de la ciencia que se articule a partir de la interactividad para hacer el conocimiento más comprensible a la ciudadanía. Asimismo, una comunicación comprometida con la explicabilidad y la comprensión es, al mismo tiempo, una oportunidad fundamental para promover un fortalecimiento de habilidades y prácticas cívicas en un contexto democrático.

Bibliografía

Comisión Europea (2015). Portal Horizonte 2020. Disponible en: https://ec.europa.eu/programmes/horizon2020/en/h2020-section/responsible-research-innovation#Article

Comisión Europea (2019). Ethics guidelines for trustworty AI. Extraído el 24 de enero de 2022 desde https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

Comisión Europea (2020). Libro Blanco sobre la inteligencia artificial:  un enfoque europeo orientado a la excelencia y la confianza. Extraído el 24 de enero de 2022 desde https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en

Domingo Moratalla, A. (2021). Del hombre carnal al hombre digital: vitaminas para una ciudadanía digital, España: TEELL Editorial.

European Group on Ethics in Sciencie and New Technologies (2018). Statement on Artificial Intelligence, Robotics and “Autonomous” Systems, Comisión Europea, Dirección General de Investigación e Innovación. Extraído el 24 de enero de 2022 desde https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf.

Fiorino, D. J. (1990). “Citizen Participation and Environmental Risk: A Survey of Institutional Mechanism”. Science, Technology, & Human Values, 15(2), 226-243.

Glerup, C. y Horst, M. (2014). “Mapping ‘social responsibility’ in science”. Journal of Responsible Innovation, 1(1), 31-50.

Hishiyama R. (2012) Outreach Communication. En T. Ishida (Ed.) Field Informatics (pp. 157-169). Berlin: Springer.

Joss, S. (2002). “Toward the Public Sphere—Reflections on the Development of Participatory Technology Assessment”. Bulletin of Science, Technology & Society, 22(3), 220-231.

Larsson, S. y Heintz, F. (2020). “Transparency in artificial intelligence”. Internet Policy Review, 9(2).

Layard Horsfall, H., Palmisciano, P., Khan, D. Z., Muirhead, W., Koh, C. H., Stoyanov, D. y Marcus, H. J. (2021). “Attitudes of the Surgical Team Toward Artificial Intelligence in Neurosurgery: International 2-Stage Cross-Sectional Survey”. World Neurosurgery, 146, 724-730.

López Cerezo, J. A. (2005). “Participación ciudadana y cultura científica”. Arbor: Ciencia, pensamiento y cultura, 715, 351-362.

Palmisciano, P., Jamjoom, A. A. B., Taylor, D., Stoyanov, D. y Marcus, H. J. (2020). “Attitudes of Patients and Their Relatives Toward Artificial Intelligence in Neurosurgery”. World Neurosurgery, 138, 627-633.

Perrault, S. (2013). Communicating Popular Science. From Deficit to Democracy, England: Palgrave Macmillan.

Vasiljeva, T., Kreituss, I. y Lulle, I. (2021). “Artificial Intelligence: The Attitude of the Public and Representatives of Various Industries”. Journal of Risk and Financial Management, 14(8), 339.

Young MD., A., Amara MD., D., Bhattacharya BS. y Wey MD., Prof. María L. (2021). “Patient and general public attitudes towards clinical artificial intelligence: a mixed methods systematic review”. The Lancet Digital Health, 3(9), 599-611.

Keywords (use both uppercase and lowercase letters)

Main author information

Antonio Luis Terrones Rodríguez (Spain)
Universitat de València (UV) (Spain)
Consejo Superior de Investigaciones Científicas (CSIC) (Spain) 386
Scientific production

Co-authors information

Status:

Approved