De ChatGPT a Midjourney: limitar los riesgos de la IA generativa en los negocios

Si la IA generativa amplía las capacidades de los empleados en determinadas tareas, plantea una serie de riesgos. De ahí la importancia de regular adecuadamente sus usos y enfatizar sus límites a los usuarios.
Uno de los puntos fuertes de la IA generativa es su capacidad para integrar, procesar y dar sentido a grandes cantidades de datos. Son capaces de detectar patrones y tendencias entre ellos y luego formalizarlos en informes asimilables a los humanos. Esto acelera el análisis de datos y reduce el tiempo para tomar decisiones informadas. También vemos cada vez más empresas que utilizan esta tecnología para generar código, probar estudios de casos y validar escenarios e hipótesis. Esto lo vemos en particular con las aplicaciones de IA generativa destinadas a crear documentos visuales, vídeos o audio. Incluso los artistas ahora pueden utilizar estas herramientas para llevar su proceso creativo a horizontes nunca antes soñados.
Las IA generativas también facilitan la realización de ciertos pasos en el proceso de contratación. Pueden apoyar a los reclutadores desde el inicio del proceso, cuando tienen que redactar una descripción del puesto o un anuncio de oferta de trabajo, o seleccionar los mejores perfiles, basándose en datos disponibles públicamente, como los antecedentes profesionales de las personas, presentes en LinkedIn.
Las IA generativas son, por tanto, excelentes herramientas de asistencia al ser humano, permitiéndole ahorrar tiempo y recursos. Más que sustituirlos, amplían sus capacidades.
Puras mentiras y respuestas sesgadas
Pero al igual que los humanos, la IA generativa puede cometer errores y, por tanto, poner en problemas a sus usuarios. El ejemplo más reciente es el del abogado estadounidense Steven Schwartz quien, en mayo de 2023, creó uno de sus alegatos con jurisprudencia recogida en ChatGPT... que resultó ser pura invención (Lea “Un abogado estadounidense utilizó ChatGPT para preparar un juicio... y sólo citó juicios falsos”, France Inter, martes 30 de mayo de 2023).
En su informe, el Comité Asesor Nacional de Ética (CCNE) advierte contra el uso de IA para escribir artículos de prensa, lo que podría “crear desinformación a gran escala”. "En particular, los modelos generativos podrían usarse para obtener una clasificación deseada de contenido malicioso en algoritmos de recomendación en redes sociales o motores de búsqueda, favoreciendo opiniones políticas específicas".
Te invitamos a leer...
Asimismo, la información obtenida puede estar sesgada. De hecho, ChatGPT y otras IA generativas se entrenan con miles de millones de puntos de datos que pueden contener sesgos que se pueden encontrar en sus respuestas. Además, una IA mal entrenada puede crear una discriminación perjudicial para las empresas, haciéndolas menos competitivas.
Usos en datos de empresa: cuidado con la información confidencial
Las IA generativas también pueden provocar la divulgación de datos. En abril de 2023, Samsung descubrió una violación de datos que reveló información confidencial, incluidas actas de reuniones y datos sobre el rendimiento y la productividad de sus instalaciones de producción. Los ingenieros de Samsung utilizaron el chatbot para corregir rápidamente errores en su código fuente, transmitiendo datos que no deberían publicarse. Aunque esta infracción no fue intencionada, genera preocupación sobre los riesgos del trabajo impulsado por IA.
La IA generativa también puede plagiar una fuente protegida. Por lo tanto, la agencia fotográfica Getty Images presentó una denuncia contra Stable Diffusion por no haber autorizado a la IA a entrenarse con sus imágenes. A este respecto, la Comisión Europea, en sus directrices, pide a su personal que “nunca reproduzca directamente los resultados de un modelo generativo de IA en documentos públicos, como cuando se crean textos de la Comisión, en particular aquellos que son jurídicamente vinculantes. Por lo tanto, la Comisión consideraría su uso únicamente para fines internos, sin comunicación al público.
Supervisar usos, deconstruir ideas preconcebidas
Ante estos riesgos tan reales, las empresas deben tomar medidas para monitorear y regular el contenido generado.
Esta vigilancia implica en particular:
- Recopilar comentarios de los empleados a través de encuestas;
- La formación de un equipo y colaboradores dedicados;
- Comparación del contenido producido por humanos con el de la IA generativa;
- Implementación de indicadores clave de desempeño;
- Restringir el acceso de los empleados a la IA generativa en el contexto de su trabajo; Por lo tanto, Apple, Verizon e incluso JPMorgan han optado por simplemente prohibir el uso de ChatGPT por parte de sus empleados, para evitar cualquier filtración de información. Por su parte, Samsung está desarrollando una alternativa a ChatGPT.
- Respeto por una ética de diseño común. El Comité Asesor Nacional de Ética nos recuerda que la IA no debe reemplazar a los humanos. Además, los creadores de un sistema de IA generativa deben analizar, durante la fase de diseño, cada una de las opciones tecnológicas que puedan provocar tensiones éticas. La cuestión de la verdad surge porque “la falta de valoración del valor de la verdad (...) puede conducir a la producción de desinformación. Cuestiona la responsabilidad de los diseñadores y nuestra relación con la ética de la verdad”. Una propuesta de reglamento iniciada en 2021 por la Comisión Europea, posteriormente modificada y votada por el Parlamento Europeo en junio de 2023, tiene como objetivo precisamente “imponer una responsabilidad significativa a todos los fabricantes de modelos de cimientos que los comercializan o los publican libremente”. Si se adopta definitivamente la AI Act*, será una primera respuesta a las cuestiones éticas que han surgido desde el desarrollo de un software accesible a todos.
Brevemente, 3 ideas preconcebidas para deconstruir Cuando se utiliza IA generativa en los negocios:
1 - El contenido generado es sistemáticamente correcto. : Sucede con más frecuencia de lo que piensas que las herramientas de IA generativa brindan respuestas inexactas. Lo principal entonces es recordar evaluar la exactitud y relevancia de los resultados obtenidos antes de utilizar esta información como referencia y compartirla interna o externamente.
dos - El contenido generado siempre demuestra lógica. : La generación de contenido de IA a veces puede ser impredecible y su lógica o toma de decisiones no siempre es inteligible. Por lo tanto, se debe tener cuidado de comprender el razonamiento detrás del resultado obtenido y realizar las modificaciones necesarias.
3 – El contenido generado no contiene ningún prejuicio : Las herramientas de IA generativa a veces ingieren datos subjetivos que pueden distorsionar los resultados obtenidos. Por lo tanto, es esencial implementar regulaciones para detectar resultados sesgados y hacerlos cumplir con la ley y las políticas de la empresa.

*: Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (legislación sobre inteligencia artificial) y se modifican determinados actos legislativos de la Unión.
Para leer contenido relacioanado a "De ChatGPT a Midjourney: limitar los riesgos de la IA generativa en los negocios" puedes ingresar a la categoría Actualidad.
Deja una respuesta
Contenido relacionado