Recapitulación: Creación de un programa de IA responsable: un marco práctico para los equipos jurídicos y de riesgos

Si cree que las conversaciones sobre IA tratan sólo de herramientas y tecnologías, piénselo otra vez.

Building a Responsible AI Program

Ha oído las palabras de moda: IA agéntica, modelos generativos, marcos de gobernanza, mitigación de riesgos... Pero, ¿qué aspecto tiene todo esto cuando se está en la empresa y se intenta dirigir una organización a través del cambio de la IA, sin provocar un pánico de cumplimiento o crear fricciones con el equipo de producto?

Eso es exactamente lo que se abordó en esta sesión.

En un webcast organizado por Corporate Counsel Business Journal (CCBJ) y Mitratech, un brillante panel multifuncional de mujeres de los departamentos jurídico, de riesgos y de operaciones se sentó a compartir lo que realmente se necesita para crear un programa de IA que sea estratégico, responsable y duradero.

Oirás voces como:

  • Julie Honor, abogada de Thompson Hine, con la sabiduría de una antigua directora general y la valentía de alguien que ha visto cómo la estrategia de IA iba mal sin una sólida supervisión humana.
  • Somya Kaushik, Consejera General Asociada y líder jurídica, que está ayudando a remodelar la forma en que los equipos jurídicos pasan de ser reacios al riesgo a aceleradores estratégicos.
  • Madeline Reigh, una estratega del cumplimiento que sigue recordando a todo el mundo que la gobernanza no es sólo política: es creación de una cultura proactiva.
  • Liz Lugones, una veterana de operaciones legales con formación jurídica que compara la transformación de la IA con conseguir que los abogados se enamoren de Zoom (al final lo hicieron).

Y no estaban aquí para vagos tópicos. Estas mujeres aportaron historias, honestidad y humor: desde directoras generales a las que se les ha pedido que "redacten una política que diga no a la IA", hasta responsables de riesgos que hacen malabarismos con la HIPAA y permiten la innovación.

¿El mensaje?

La IA no es sólo otra implantación de software. Es una iniciativa de cambio que da prioridad a las personas y que afecta a los ámbitos jurídico, de cumplimiento normativo, de riesgos, de productos y de liderazgo, y debe abordarse como tal.

Si busca una lista de comprobación del programa de IA, la encontrará. Pero si lo que busca es una visión de cómo liderar una verdadera transformación de la IA, basada en las personas, construida sobre una estructura y alimentada por una estrategia, coja una silla para asistir a la repetición de este seminario web.


Empezar por la gente (sí, de verdad)

Antes de profundizar en marcos o flujos de trabajo, el panel dejó clara una cosa: la IA no es un problema tecnológico, sino humano. O mejor dicho, es una oportunidad para las personas.

Julie Honor, antigua consejera general reconvertida en consejera externa, lo explica mejor que nadie: "Incluso cuando la IA evoluciona, el elemento humano sigue siendo el centro. Ahí es donde viven las verdaderas decisiones -y los riesgos-".

El grupo describió un marco en forma de rueda para la adopción responsable de la IA, y ¿adivina qué se sitúa en el centro? Las personas y las operaciones. Todo lo demás (políticas, procesos, herramientas, gobernanza) gira en torno a ello.

Puede que la IA agenética sea la novedad más brillante, pero como explicó Julie, en realidad es sólo "IA con flujos de trabajo". Lo más importante es cómo se diseña y se utiliza. Y eso empieza por asegurarte de que tu gente se siente informada, capacitada y respaldada.

¿De quién es esto? Crear el comité (y la cultura) adecuados

Como ha señalado Liz Lugones, la IA puede parecer nueva, pero su implantación no es tan diferente de otros grandes cambios tecnológicos. ¿Recuerdas cuando los abogados no querían usar Zoom? Pues sí. Ahora son los primeros en hacer clic en el enlace de la reunión.

Para que la IA se mantenga, se necesita una estructura y las voces adecuadas en la mesa.

El viaje de Mitratech comenzó con un pequeño comité de IA, formado por unos pocos actores clave, principalmente del departamento jurídico. Sin embargo, a medida que el proyecto evolucionaba, incorporaron a los departamentos de producto, seguridad, marketing, TI y operaciones. ¿El resultado? Un grupo dinámico que realmente podía tomar decisiones y hacer avanzar las cosas.

Somya Kaushik, Asesora Jurídica General Asociada de Mitratech, lo resumió muy bien: "El papel del departamento jurídico no es decir sí o no. Es preguntarse: ¿hasta dónde y a qué velocidad podemos llegar, de forma responsable?".

El patrocinio ejecutivo ayuda, pero no espere a recibir un memorándum de la alta dirección. Empiece donde está. Establezca las relaciones. Cree la estructura. Haga crecer su programa de IA sobre la marcha.

Casos de uso primero, herramientas después

Cuando la gente habla de IA, a menudo empieza con: "¿Qué herramientas debemos comprar?".

Pregunta equivocada.

La mejor, según Liz y Somya, es: "¿Qué experiencia intentamos mejorar?".

Tanto si se trata de hacer más eficiente el trabajo interno como de crear productos de cara al exterior, hay que empezar por identificar casos de uso claros y centrados en las personas. A continuación, construye barandillas en torno a ellos, especialmente si se trata de datos sensibles (como PHI o IP confidencial).

En Mitratech, crearon un proceso interno de presentación de casos de uso. No se trataba de bloquear las cosas, sino de capacitar a los equipos con directrices claras y vías inteligentes. Con el tiempo, incorporaron un proceso de admisión más formal a través de TAP y empezaron a revisar las herramientas y las hojas de ruta trimestralmente.

¿Una medida inteligente? Clasificar las herramientas en función de los datos que tocan. Si no son sensibles o confidenciales, no hay necesidad de embotellarlos. ¿Y si lo son? Entra en juego la revisión completa.

Sí, se puede ser responsable y estratégico

La IA y el riesgo suelen considerarse enemigos. Pero lo cierto es que el cumplimiento y la innovación pueden ser grandes socios (¡si se diseñan así!).

Madeline Reigh, Directora de Riesgos y Cumplimiento de Mitratech, nos recordó que la gestión de los riesgos de la IA no es algo que se haga de una sola vez. Es un sistema vivo: políticas, formación, evaluaciones y circuitos de retroalimentación que evolucionan a la par que la tecnología y la normativa.

Esto es especialmente cierto en sectores muy regulados, como la sanidad. Un miembro del público planteó una cuestión importante sobre la HIPAA, y el panel respondió con consejos prácticos:

  • Construir modelos cerrados y controlados cuando sea necesario.
  • Añada formación HIPAA a medida para los equipos pertinentes.
  • Tecnología de privacidad por capas (como filtros de reconocimiento de formato) para detectar los datos peligrosos antes de que se cuelen.

¿Y sobre todo? Enseñar a la gente el "por qué".

Julie lo ha clavado: "No te limites a decir a la gente que no suba información confidencial. Hágales entender lo que ocurre si lo hacen: pérdida de confianza, multas, titulares. Entonces es cuando cambia el comportamiento".

Formación que realmente funciona

El panel también hizo hincapié en que la formación no significa un aburrido PowerPoint. Significa:

  • Integrar la educación en las propias herramientas (avisos inteligentes, bloqueadores de entrada).
  • Crear una orientación "justo a tiempo".
  • Personalizar los mensajes para que resuenen: lo que funciona para ingeniería no funcionará para ventas.

Y quizás lo más importante, la formación es un juego de cultura. La gente tiene que sentirse segura haciendo preguntas. Tienen que sentirse parte del proceso.

Lo que nos lleva a uno de los momentos más virales de la sesión (si esto hubiera sido X):

"La gente apoya lo que crea, y la gente necesita verse a sí misma en el cambio".- Julie Honor

Ponerlo todo en común: El marco en acción

Al final de la sesión, los asistentes tenían una idea clara del ciclo de vida completo del marco:

  1. Comience con el caso de uso. (¿Qué problema está resolviendo?)
  2. Elija entre construir o comprar. (¿Qué se ajusta a tus necesidades y a tu apetito de riesgo?)
  3. Póngalo en práctica con cuidado. (Incluir a las personas, planificar el cambio).
  4. Gobernarlo continuamente. (Formar, adaptar, evaluar).

Como demostró una pregunta del público, las cuatro etapas están conectadas. Tanto si te preocupa la contaminación de los modelos, el uso indebido de los datos o las restricciones normativas, este marco de programas de IA te ofrece una forma de participar, no solo de reaccionar.

qué es la gestión de políticas

Conclusiones del panel

Cada orador nos dejó una reflexión de despedida, ligada a su perspectiva:

  • Madeline (Riesgo): Mantén las políticas dinámicas. El riesgo no es estático, y su estrategia tampoco debería serlo.
  • Somya (Legal): Conoce a tu gente, tu apetito, tus puntos ciegos. Dirige el diálogo, no solo la documentación.
  • Julie (Operaciones/Proceso): Ayuda a la gente a sentirse incluida. No los estás sustituyendo, los estás potenciando.
  • Liz (Personas): Las operaciones jurídicas son empatía, estructura y sistemas. Mantén a las personas en el centro y el éxito vendrá por añadidura.

Último recordatorio: Que la "perfección" no sea enemiga del progreso

No existe un manual único para la IA. Y eso está bien.

En esta conversación no se trataba de bloquear un sistema rígido, sino de crear un enfoque vivo y dinámico de la IA que evolucione con su personal, su empresa y el mundo que le rodea.

Así que empieza por donde estás. Organízate. Despierta tu curiosidad. Y trae a tu gente contigo.

Y si todavía se está preguntando si el ámbito jurídico debe liderar la conversación sobre la IA, ¿qué le parece?

La respuesta es sencilla: ya lo eres. Ahora inclínate.

¿Desea ver la diapositiva completa y los materiales de seguimiento? Vea la repetición aquí.

Creación de un programa de IA