top of page

Inteligencia artificial en el quehacer parlamentario: reflexiones sobre su uso, abuso y la preservación del valor humano

  • Jose Manuel Campos Chávez
  • 8 jul
  • 3 Min. de lectura

Actualizado: 16 jul


ree

La irrupción de herramientas de inteligencia artificial generativa, como ChatGPT, ha transformado significativamente diversas actividades profesionales, incluyendo el quehacer parlamentario. Si bien estas tecnologías pueden constituir un apoyo legítimo en tareas de redacción, análisis y sistematización de información, su utilización indiscriminada plantea riesgos importantes para la integridad del proceso legislativo y, sobre todo, para la preservación del juicio humano como núcleo rector de la deliberación pública.


En el contexto parlamentario contemporáneo, caracterizado por la creciente presión de producir iniciativas, puntos de acuerdo y posicionamientos en tiempos reducidos, las tecnologías de inteligencia artificial se han incorporado como instrumentos de eficiencia técnica. Su capacidad para sintetizar textos, ordenar argumentos y elaborar estructuras jurídicas ha generado la impresión de que son idóneas para facilitar la labor legislativa. Sin embargo, esta percepción corre el riesgo de trivializar el fondo del trabajo parlamentario, al reducirlo a una operación mecánica de generación textual.


La tarea legislativa exige algo más que habilidad para redactar documentos. Requiere comprensión del entorno, conocimiento normativo, experiencia institucional y sensibilidad política. En este sentido, el uso excesivo de plataformas automatizadas puede derivar en una delegación inadecuada de funciones sustantivas, debilitando la dimensión ética, representativa y crítica del acto parlamentario. La inteligencia artificial, por sofisticada que sea, no posee conciencia histórica, ni compromiso con una realidad social específica. Puede simular razonamientos, pero no generar convicciones ni asumir responsabilidad política.


Este fenómeno obliga a reflexionar sobre la necesidad de establecer límites claros entre el uso legítimo de herramientas tecnológicas y el desplazamiento del criterio humano en la toma de decisiones públicas. La inteligencia artificial debe considerarse un apoyo, no un sustituto. La legitimidad de una iniciativa legislativa no radica únicamente en su forma, sino en el proceso deliberativo que la sustenta, en el contexto que la justifica y en la voluntad representativa que la impulsa. Por ello, se vuelve urgente pensar en mecanismos normativos que regulen el uso de la inteligencia artificial en los procesos parlamentarios, no para restringir la innovación, sino para garantizar que no se comprometa la calidad ni la responsabilidad de los actos legislativos.


El hecho de que un documento haya sido elaborado —en parte o en su totalidad— mediante inteligencia artificial no exime de responsabilidad a quien lo presenta. Por el contrario, obliga a una revisión aún más rigurosa, ya que la delegación técnica no puede convertirse en evasión ética. Las iniciativas, posicionamientos o dictámenes deben ser asumidos con plena conciencia por quienes los firman y los defienden, garantizando que representan una postura informada, comprometida y legalmente válida.


Una iniciativa redactada por una inteligencia artificial puede cumplir con los requisitos técnicos del procedimiento parlamentario, pero carecer de sustancia si no refleja una comprensión profunda de las necesidades del pueblo al que se representa. La palabra parlamentaria, para ser auténtica, debe estar anclada en una responsabilidad ética y en una conciencia política que ninguna máquina puede replicar. El parlamento no puede convertirse en un simple canal de reproducción de textos generados por algoritmos, sino que debe seguir siendo un espacio de deliberación viva, de discusión argumentada y de construcción colectiva.


Preservar el valor humano en el quehacer legislativo no es una actitud conservadora ni una expresión de resistencia tecnológica. Es, por el contrario, una exigencia propia de la democracia contemporánea. El progreso no consiste en delegar en la máquina lo que corresponde al ser humano, sino en utilizar la tecnología de manera responsable, sin abdicar del pensamiento crítico, del compromiso social y de la voluntad de transformación.


Frente a esta disyuntiva, vale la pena recordar que el valor humano no se programa: se cultiva.


José Manuel Campos Chávez

 
 
 

Comentarios


bottom of page