“En el mundo digital, la innovación también debe ser de ética, y eso a veces significa prohibir antes de autorizar”

Filósofa y psicoanalista, Elsa Godart obtuvo el título universitario «Ética y salud digital» en la Universidad de Paris-Est-Créteil-Val-de-Marne (UPEC). Es investigadora del Laboratorio Interdisciplinario de Estudios Políticos Hannah-Arendt (Universidad Gustave-Eiffel) e investigadora asociada del Laboratorio de Antropología Política (EHESS-CNRS). Ella ha escrito Ética de la sinceridad. Sobrevive a la era de las mentiras (Arman Colin, 2020).

Lea también: Artículo reservado para nuestros suscriptores Las voces producidas por la inteligencia artificial, una “cuestión legal”

A continuación, desea crear una carta de ética y digital. ¿En qué pero?

Esto respondería a un gran problema de desarrollo técnico-científico. En algún momento, se nos escapan y somos incapaces de aprehenderlos en su totalidad. Tomemos un micro-ejemplo, pero bastante emblemático del problema de falsificaciones profundas Algunos filtros disponibles en la aplicación TikTok, que cambian la apariencia de una persona, son completamente indetectables. Esto plantea la cuestión de la autoconstrucción, especialmente con los jóvenes cuando están en medio de una crisis de identidad de la adolescencia. Dichas aplicaciones se comercializan sin haber sido probadas previamente, sin ningún respaldo y sin ningún marco ético, a diferencia de los descubrimientos científicos, que deben ser aprobados por un comité antes de ser comercializados.

¿Que sugieres?

Se debe imponer un estándar. La regulación en estas áreas es absolutamente necesaria. En cuanto una innovación tecnológica toca el campo de lo social, de lo humano, debe pasar por un comité de ética; el hombre y todo lo que es «humano» no debe ser representado como un objeto de la tecnología. estamos en una especie de “vacío ético”formulada por el filósofo alemán Hans Jonas en su obra El principio de responsabilidad [1979]. el denuncia “las posibilidades apocalípticas contenidas en la tecnología moderna” como la bomba H, que sentó un precedente; El hombre ahora podría autodestruirse. Cuando estamos en un ambiente técnico-científico que nos supera, ya no tenemos los medios éticos para pensar las cosas y su futuro, tenemos que establecer nuevos principios, nuevas reglas. La innovación también debe ser la de la ética. ¡Y a veces eso significa prohibir primero antes de permitir!

¿Esto también plantea la cuestión de la confianza?

Sí, y esta confianza es imposible hasta que dominemos el objeto. Innovaciones como la inteligencia artificial [IA] se prueban, se divulgan al público en general y solo entonces se analizan. Es extremadamente provocador de ansiedad. Tomemos el ejemplo de ChatGPT, que se preocupa por las multitudes. No ha habido una reflexión previa sobre el impacto que puede tener una herramienta de este tipo. En cuanto a dominarlo, estaba disponible y lo usaba todo el mundo incluso antes de que lo aprobáramos. Por no hablar del estadio superior al que tendemos, la potenciación de la IA, que será autogeneradora, y ahí habremos perdido toda posibilidad de control… Cuando ChatGPT haya disminuido, cuando sea más preciso, Surge la pregunta: por qué pensar por nosotros mismos, por qué intentar escribir, cuando la máquina puede hacerlo como yo y aún mejor…

Le queda por leer el 22,8% de este artículo. Lo siguiente es solo para suscriptores.