La IA bajo la lupa: Implicaciones de la investigación de la FTC a ChatGPT

Published: July 14, 2023 • AI

Contents

Enfoque principal

La reciente investigación de la Comisión Federal de Comercio (FTC) a OpenAI, el creador del popular bot de IA ChatGPT, marca un punto de inflexión significativo en la regulación de la inteligencia artificial (IA) en los Estados Unidos. Esta investigación, que se centra en posibles violaciones de las leyes de protección al consumidor, representa la amenaza regulatoria más potente para el negocio de OpenAI en los EE. UU. hasta la fecha y señala una nueva era de escrutinio para las empresas de IA.

Específicamente, la FTC alega que ChatGPT a veces genera “declaraciones sobre individuos que son falsas, engañosas, infundadas o, de otra manera, susceptibles de inducir a error a los usuarios”. Además, la agencia argumenta que estas declaraciones inexactas tienen el potencial de causar “daños reputacionales” a las personas nombradas o implicadas en las respuestas de ChatGPT. La FTC también tiene problemas con las prácticas de privacidad y seguridad de los datos de OpenAI, afirmando que la empresa no protegió los datos confidenciales de los usuarios de acuerdo con las reglas de la FTC.

La FTC busca alivio monetario para los consumidores, cambios en las prácticas de OpenAI y monitoreo continuo para garantizar el cumplimiento. El período cubierto se extiende desde el lanzamiento de ChatGPT en julio de 2022 hasta el día de hoy.

Según un informe reciente de TechCrunch, la investigación de la FTC probablemente fue provocada por quejas de daños reputacionales causados por ChatGPT, como un incidente en el que el chatbot afirmó falsamente que un alcalde australiano había sido condenado por soborno y sentenciado a prisión. Demandas como estas que se quejan de difamación por parte de ChatGPT podrían provocar un escrutinio de la FTC.

Para la comunidad de IA, esta denuncia proporciona lecciones importantes sobre los riesgos emergentes de los modelos de lenguaje, y cómo los reguladores planean examinarlos. Aquí hay tres conclusiones clave:

Precisión y veracidad

En su núcleo, la denuncia de la FTC se centra en que ChatGPT a veces hace afirmaciones falsas o engañosas sobre personas reales. Esto podría ocurrir si ChatGPT genera contenido ofensivo, peligroso o abusivo en función de patrones de datos dañinos en sus datos de entrenamiento. También puede ocurrir cuando ChatGPT “alucina” nueva información debido a su naturaleza generativa, en lugar de permanecer estrictamente factual.

De cualquier manera, la FTC deja claro que los sistemas de IA no deben difundir información errónea o falsedades sobre individuos. Esta expectativa en torno a la precisión y la veracidad probablemente se extenderá a todas las aplicaciones de IA generativa, no solo a ChatGPT.

Como tal, los desarrolladores de IA deberían redoblar esfuerzos para evaluar las salidas del modelo en busca de posibles falsedades. Las estrategias pueden incluir la revisión manual, el raspado de conjuntos de datos de entrenamiento en busca de fuentes cuestionables, la adición de modelos clasificadores y el filtrado proactivo. La veracidad debe ser una estrella polar durante el entrenamiento.

El daño reputacional importa

Un enfoque clave de la denuncia de la FTC es cómo ChatGPT podría dañar las reputaciones y los medios de vida de profesionales, expertos y empresas al hacer afirmaciones poco fiables sobre ellos. La agencia adopta la posición de que las API como ChatGPT no deberían tener el poder sin control de distorsionar la percepción pública.

Hay algunas formas clave en que los chatbots conversacionales de IA como ChatGPT podrían potencialmente dañar la reputación de las personas:

Hacer afirmaciones falsas o infundadas sobre la conducta o el carácter de alguien. Por ejemplo, afirmar falsamente que alguien cometió un crimen o transgresión. Incluso si no es cierto, aún podría empañar su reputación si otros confían en él.

Revelar información privada, confidencial o confidencial sin el consentimiento del sujeto. Esto podría exponer detalles que violen su privacidad o los retraten negativamente.

Esta es una incorporación notable a los estándares injustos/engañosos, que tradicionalmente se centran en causar daño financiero a los consumidores. La FTC está señalando que el daño reputacional impulsado por la IA es un tipo de daño por derecho propio que vale la pena prevenir.

Para los desarrolladores de IA, proteger la reputación de las personas ahora parece ser una consideración clave. Las empresas pueden necesitar implementar una detección estricta de identidad, listas negras de nombres/entidades, exoneraciones de responsabilidad y formas de abordar resultados equivocados que difamen injustamente. Encontrar el equilibrio adecuado entre la creatividad y la precaución será fundamental.

Se aplican reglas de privacidad y seguridad

La denuncia de la FTC también alega que OpenAI no cumplió con la protección de los datos de los usuarios según lo exige la Sección 5 de la Ley de la FTC. Específicamente, afirma que la empresa no implementó salvaguardias razonables de seguridad de datos y violó los compromisos asumidos en su política de privacidad.

Esto sirve como un recordatorio más de que las empresas de IA tienen la obligación de salvaguardar los datos de los usuarios, detectar proactivamente las vulnerabilidades del software e implementar medidas de ciberseguridad robustas. Con los sistemas de IA ingiriendo más información personal del usuario que nunca, los impactos de una violación podrían ser aún más agudos.

El manejo indebido de datos confidenciales o no responder adecuadamente a errores podría violar los compromisos de la Sección 5 en torno a la seguridad de los datos. Subraya por qué las auditorías continuas y el mantenimiento de las mejores prácticas en torno a los controles de acceso, el cifrado y la aplicación de parches son tan importantes en el sector de la IA. La adopción de principios de privacidad y seguridad por diseño al desarrollar nuevos sistemas es muy recomendable.

En general, entre los presuntos problemas con la veracidad de ChatGPT y las preocupaciones de seguridad citadas, la denuncia de la FTC pinta una imagen de protecciones laxas en torno a la información y los derechos de los usuarios de IA. Una responsabilidad más estricta en estas áreas parece inminente no solo para OpenAI, sino para el campo de la IA generativa en general.

Mirando hacia adelante…

Si bien OpenAI ha disputado las acusaciones de la FTC, la denuncia señala de todos modos una nueva era de escrutinio regulatorio para la IA. Es probable que veamos un mayor enfoque en la seguridad, la precisión, la mitigación de sesgos y la protección del consumidor a medida que la IA se vuelva más omnipresente.

Bien hecho, esta supervisión podría ayudar a la industria de la IA a ganarse la confianza del público y alinear la toma de decisiones de la IA con los valores humanos. Pero también crea nuevos requisitos de diligencia para las empresas que desarrollan aplicaciones de IA.

Al igual que en los primeros días de la regulación de Internet, los reguladores actualmente enfrentan una curva de aprendizaje empinada cuando se trata de la tecnología de IA. Como tal, espera que algunos estándares sigan siendo fluidos a medida que se establezcan salvaguardas realistas.

En general, la denuncia de la FTC proporciona un estudio de caso oportuno para los desarrolladores de IA sobre los posibles daños que los reguladores están monitoreando. Si bien los detalles pueden evolucionar, los temas generales de precisión, reputación, privacidad y seguridad están aquí para quedarse. Invertir en prácticas responsables de IA en estas áreas es el camino prudente a seguir.

Preguntas frecuentes: profundizando en la denuncia de OpenAI

¿Cuáles son algunas de las principales formas en que esta denuncia de la FTC podría impactar a toda la industria de la IA?

Las ramificaciones de esta denuncia podrían tener un alcance muy amplio para las empresas de IA. Les avisa que los modelos generativos deben cumplir con ciertos estándares de precisión, privacidad y ética para ser legales. Si bien los detalles aún pueden estar en fluctuación, esto señala que la supervisión humana, la moderación de contenido, las pruebas de sesgo rigurosas y la protección de la reputación de las personas son ahora prioridades regulatorias.

Debemos esperar un mayor rigor en torno a la evaluación de las fuentes de datos de entrenamiento, el filtrado de salidas, la adición de salvaguardias cuando sea necesario y una mayor transparencia para los usuarios. Probablemente habrá efectos secundarios que conduzcan a más inversión en prácticas responsables de IA en toda la industria. Aunque los detalles están pendientes, la FTC deja claro que los sistemas de IA deben considerar cuidadosamente los posibles daños durante el desarrollo.

¿Podría esta denuncia sentar un precedente para regular el contenido de IA más ampliamente?

Muy bien podría hacerlo. La FTC está ejerciendo su autoridad para garantizar que la IA no distribuya información inexacta o abusiva sin rendir cuentas. Este mismo razonamiento eventualmente podría aplicarse a todo tipo de sistemas de IA que generen o distribuyan contenido, desde asistentes virtuales hasta API de visión computarizada.

Podemos ver pedidos para que ciertos grandes modelos de lenguaje se consideren “intermediarios de información” dada su alcance sin precedentes. Esto podría imponer deberes en torno a abordar la desinformación, prevenir la discriminación, permitir la apelación de eliminaciones y proporcionar transparencia en torno a las decisiones. Si bien regular el contenido de IA sigue siendo complicado, esta denuncia sienta las bases para una supervisión más amplia si los daños se proliferan.

¿Cuáles son las implicaciones para la libertad de expresión de regular la IA de manera más estricta?

Existen preocupaciones legítimas en torno a la impresión de cualquier visión del mundo específica o la limitación de la creatividad de la IA. Sin embargo, el enfoque de la FTC aquí son las falsedades claras o las violaciones de privacidad, no la regulación de opiniones. Proteger a las personas de un daño reputacional inequívoco también parece razonablemente adaptado.

No obstante, los legisladores deben tener cuidado de no limitar indebidamente la expresión de IA en la búsqueda de seguridad y precisión. La IA tiene el potencial de democratizar el intercambio y el acceso a la información si se implementa de manera reflexiva. Delinear salvaguardias sin enfriar la innovación requerirá avanzar con cuidado. Pero hecho correctamente, una supervisión mejorada podría hacer que las soluciones de IA sean más inclusivas para todos.

¿Cómo podría esto impactar la hoja de ruta de compañías como Google, Meta y Microsoft que también están desarrollando grandes modelos de lenguaje?

Es probable que los principales actores tecnológicos que exploran este espacio reconozcan que se avecina un mayor escrutinio de la IA generativa. Esta denuncia refuerza la urgencia de priorizar la seguridad, la ética y los derechos humanos desde las primeras etapas del desarrollo.

Deberíamos ver efectos secundarios que impulsen a los gigantes tecnológicos a invertir aún más en moderación de contenido, filtrado, pruebas de sesgo, revisiones de ética de datos y protecciones contra el uso indebido. La presión regulatoria también podría acelerar la colaboración de la industria en las mejores prácticas. Aunque es gravoso a corto plazo, fomentar la confianza pública en última instancia beneficia a todos en el ecosistema de IA. Esta acción de la FTC es una llamada de atención para diseñar de manera responsable.

¿Cuáles son algunas de las principales formas en que esta denuncia de la FTC podría impactar el progreso de la investigación en IA en general?

Esta denuncia señala que la era de la investigación rápida de IA sin salvaguardas está llegando a su fin. Deberíamos esperar que la presión regulatoria introduzca enfoques más cautelosos y seguros por diseño para desarrollar nuevos modelos. La FTC deja claro que las capacidades de IA por sí solas no justificarán el despliegue de sistemas que no hayan sido rigurosamente evaluados en busca de posibles daños.

A corto plazo, esto puede restringir la capacidad de los investigadores para publicar libremente modelos que podrían causar problemas éticos en estado salvaje. Sin embargo, incentiva a los investigadores a invertir más profundamente en áreas como la seguridad de la IA, la auditoría de imparcialidad y sesgos, las técnicas para la prevención de uso indebido y la alineación con los valores humanos. En lugar de enfriar la innovación por completo, esto reenfoca el campo hacia un progreso responsable que se gana la confianza del público.

A más largo plazo, encontrar el equilibrio adecuado entre la supervisión y la creatividad sin trabas en la investigación de IA requerirá un continuo ensayo y error. Pero dar prioridad a las consideraciones éticas al mismo nivel que las capacidades brutas antes en el proceso de desarrollo puede prevenir una regulación mucho más estricta en el futuro. En general, esta denuncia que dirige a los investigadores hacia abordar proactivamente los riesgos sociales podría ser un beneficio neto para la innovación si se implementa juiciosamente.

¿Cuáles son algunas de las mejores prácticas para abordar el daño y la desinformación en los grandes modelos de lenguaje?

Hay una combinación de intervenciones humanas y técnicas que pueden ayudar a mitigar los daños de los modelos de lenguaje:

Auditorías rigurosas durante el entrenamiento/ajuste fino para identificar sesgos, fallas en el razonamiento y salidas problemáticas que requieren solución antes de cualquier lanzamiento público.

Implementación de clasificadores para detectar posible desinformación y marcarla para revisión humana antes de compartirla ampliamente.

Listas negras de ciertos usos peligrosos o no éticos, consultas o categorías de contenido desde el principio.

Limitación de la tasa de solicitudes de programación de interfaces de aplicaciones (API) para controlar la viralidad y prevenir abusos.

Realización de estudios a gran escala con usuarios en poblaciones diversas para descubrir posibles problemas.

Proporcionar salvaguardas para los usuarios en torno a la verificación de cualquier información confidencial generada.

Moderar contenido posterior al lanzamiento a través de una combinación de automatización y revisores humanos.

Permitir apelaciones de eliminaciones injustas y garantizar visibilidad en el proceso.

Permitir que los usuarios informen salidas dañinas o falsas para priorizar la remediación.

Una combinación de opciones de ingeniería reflexivas, mayor transparencia y supervisión medida durante el desarrollo y en producción puede ayudar a salvaguardar a los usuarios al mismo tiempo que se preserva el tremendo potencial de la IA.

¿Cuáles son las implicaciones para la libertad de expresión si se requiriese más moderación de contenido en los grandes modelos de lenguaje?

La moderación de contenido generativo de IA plantea algunas preocupaciones en torno a la censura dado el alcance sin precedentes de estos sistemas. Sin embargo, no todas las limitaciones equivalen a una verdadera supresión del discurso; el contexto importa enormemente. Definir cuidadosamente el contenido ilegal frente al simplemente objetable es clave.

Prohibir falsedades claras o violaciones de la privacidad se ajusta más seguramente a las protecciones al consumidor. Pero una moderación más amplia basada en la “ofensa” subjetiva podría excederse si no se adapta estrechamente para proteger los derechos y la seguridad individuales tangibles. Restringir opiniones legítimas, sátiras, arte o voces marginadas podría socavar gravemente la libre expresión.

Los legisladores tendrán que modernizar los marcos para la gobernanza del discurso en línea a medida que evolucionen las capacidades de IA. Mantener la transparencia en torno a las decisiones sobre contenido y permitir apelaciones de eliminaciones injustas será fundamental. En general, el objetivo debería ser combatir el engaño claro y el daño al mismo tiempo que se permite el intercambio más libre posible de ideas legítimas. Con cuidado, prácticas de moderación mejoradas para la IA no tienen por qué contravenir los principios de la Primera Enmienda.

¿Deberían los sistemas de IA ser responsables legalmente si crean contenido difamatorio o violan las leyes de privacidad?

Esta sigue siendo una pregunta legal compleja. Los sistemas de IA carecen de conciencia o intención, por lo que atribuirles culpabilidad legal por sí solos carece de sentido. Sin embargo, sus creadores podrían tener la responsabilidad de restringir acciones ilegales en la medida de lo posible. Los desarrolladores deben proteger los sistemas de generar contenido ilegal a través de opciones de ingeniería, examen de conjuntos de datos, moderación y otras precauciones.

No obstante, alguna responsabilidad probablemente debe recaer en las empresas que implementan modelos de manera irresponsable. Las víctimas de violaciones de privacidad de IA o difamación merecen reparación y disuasión de infractores. Un enfoque puede ser establecer estándares de negligencia en torno a la implementación de salvaguardias razonables proporcionales a los riesgos. Sin embargo, la responsabilidad estricta de los proveedores por todos los daños de la IA podría enfriar la innovación. Desarrollar marcos reflexivos para incentivar el cuidado sin sofocar el progreso será clave.

¿Cómo podrían los reguladores supervisar el desarrollo de nuevos sistemas de IA para reducir el riesgo de daño?

Las restricciones excesivamente estrictas a la innovación podrían ser contraproducentes, por lo que “confiar pero verificar” puede ser la filosofía más prudente. Los marcos que requieren auditorías externas, evaluaciones de riesgos y monitoreo continuo proporcionales al impacto potencial de un sistema de IA podrían ayudar sin descarrilar por completo el progreso.

Los reguladores también necesitan una experiencia interna adecuada para evaluar modelos y brindar orientación flexible a los desarrolladores. Fomentar organismos de colaboración que incluyan al gobierno, la academia y la industria en torno a las mejores prácticas de IA puede ser beneficioso. Establecer expectativas claras al principio, al tiempo que se retiene flexibilidad, puede fomentar la responsabilidad sin sofocar los descubrimientos antes de que surjan. Lograr una supervisión adecuada implicará aprendizajes continuos en todos los frentes.

¿Cuál es la mejor manera de equilibrar las garantías de libertad de expresión con la protección de las personas frente a los daños generados por IA?

Se necesita un enfoque medido y contextual que apunte a violaciones claras sin limitar el discurso legítimo. Definir salvaguardas en torno a afirmaciones demostrablemente falsas o exposición de información privada confidencial puede ayudar a frenar el daño sin enfriar las opiniones. Sin embargo, comprender los matices culturales en torno a cuándo el discurso se cruza en la infracción de los derechos frente a la mera ofensa será fundamental.

Los legisladores también deberían considerar cómo equipar al público con alfabetización en torno a interactuar de manera responsable con contenido sintético. El desarrollo de resiliencia social junto con límites legales razonables adaptados a cada dominio de IA ayudará a salvaguardar los derechos de manera holística. Y mantener la visibilidad de las decisiones de los proveedores al tiempo que permite apelaciones será clave para ganarse la confianza pública en este acto de equilibrio.

¿Deberían los sistemas de IA tener un “deber de cuidado” legal para evitar causar daño a los usuarios?

Este concepto emergente merece consideración a medida que la IA impregna la vida cotidiana. Imponer un deber de línea de base sobre los proveedores proporcional a los riesgos previsibles de un sistema de IA podría incentivar prácticas de seguridad proactivas al tiempo que permite una amplia innovación. Sin embargo, los mandatos rígidos independientemente del contexto podrían volverse abrumadores. La clave es permitir flexibilidad para adaptar las responsabilidades a cada potencial único de daño tecnológico. Hecho juiciosamente, establecer expectativas generales en torno a un diseño, capacitación, monitoreo y reparación legales podría orientar a los desarrolladores hacia una IA responsable sin un alcance punitivo excesivo que sofoque el progreso.

¿Qué son algunas intervenciones técnicas que podrían hacer que los sistemas de IA sean menos propensos a generar desinformación?

Entrenar modelos para estimar puntajes de confianza para el contenido generado que reflejen la incertidumbre.

Construir marcos de causalidad para mejorar el razonamiento lógico y señalar afirmaciones especulativas.

Incorporar gráficos de conocimiento externos para fundamentar las respuestas en datos factuales.

Aprovechar enfoques de aprendizaje semi-supervisado para refinar aún más los modelos antes del despliegue.

Implementar aprendizaje reforzado de interacciones de usuarios posteriores al lanzamiento para mejorar continuamente.

Emplear técnicas de entrenamiento adversarias para identificar y reducir las vulnerabilidades del modelo.

Codificar metodologías científicas de forma nativa dentro de arquitecturas generativas.

Técnicas específicas como estas para reducir la especulación y fundamentar la generación de IA en datos empíricos pueden frenar la desinformación emergente al tiempo que preservan el potencial creativo.

¿Cómo pueden los legisladores elaborar regulaciones de IA de manera flexible para permitir la innovación continua en el campo?

Centrarse en mandatos estrictos estrechamente en daños graves demostrados, evitando restricciones amplias preventivas.

Aprovechar asociaciones público-privadas para recopilar experiencia técnica continua.

Introducir la supervisión gradualmente a través de las mejores prácticas emergentes frente a reglas estrictas de arriba hacia abajo.

Asegurarse de comprender las consideraciones únicas para diferentes dominios de IA.

Desarrollar marcos adaptados por clase tecnológica proporcionales a sus riesgos.

Mantener organismos de supervisión ágiles que puedan evolucionar los estándares de manera fluida a medida que surgen nuevos casos de uso.

Incentivar consideraciones éticas para desarrolladores sin extralimitarse punitivo que sofoque el progreso.

Proteger las expectativas legítimas de transparencia, responsabilidad y seguridad sin ser excesivamente prescriptivo.

Permitir auto certificaciones de adherencia junto con auditorías de terceros frente a la pre-aprobación.

Centrándose estrechamente en proteger contra daños inaceptables al tiempo que mantiene la flexibilidad, los legisladores pueden fomentar la innovación de la IA de manera responsable.

¿Cuáles son algunas señales de advertencia de que un sistema de IA puede estar produciendo resultados dañinos, inexactos o sesgados?

Errores desproporcionados con respecto a grupos sociales particulares.

Generar escenarios o afirmaciones factualmente improbables sin advertencias.

Declaraciones basadas en razonamientos falaces o suposiciones especulativas.

Aseveraciones sin fuente más allá del conocimiento común.

Falsa confianza proyectando autoridad más allá de las capacidades del sistema.

Respuestas con el potencial de reforzar estereotipos peligrosos.

Resultados desalineados sustancialmente con los valores de la empresa propietaria.

Las auditorías proactivas que evalúan estos factores antes y después del despliegue pueden identificar riesgos.

¿De qué forma los proveedores podrían permitir usos beneficiosos de la IA y al mismo tiempo restringir aplicaciones dañinas?

Permitir listas blancas de casos de uso permisibles y bloquear todos los demás por defecto.

Limitar la tasa de consultas generativas para frenar la posible desinformación viral.

Cifrar ciertas capacidades generativas accesibles solo para entidades verificadas.

Marcar con watermarks los medios sintéticos para disuadir la desinformación.

Dirigir los ingresos de aplicaciones beneficiosas para compensar daños potenciales.

Con un diseño reflexivo, los proveedores pueden orientar las aplicaciones hacia el bien social.

¿Cuáles son algunas formas en que los sistemas de IA podrían causar daños financieros injustos a los consumidores?

Generar asesoramiento o recomendaciones de inversión basados en datos o razonamientos defectuosos que provoquen pérdidas.

Facilitar la fijación de precios depredadores al coludirse con competidores.

Denegación automática de préstamos o seguros a grupos protegidos.

Permitir fraudes sintéticos sofisticados difíciles de detectar para los consumidores.

Automatizar la manipulación personalizada de los consumidores para que sobre gasten.

Socavar los ingresos de los creativos humanos al sobre generar contenido sintético barato.

Una supervisión reflexiva adaptada a las capacidades generativas emergentes de la IA puede ayudar a frenar los daños financieros injustos sin sofocar la innovación.

¿Cuáles son algunas opciones para las personas que creen que fueron difamadas o tergiversadas injustamente por un sistema de IA?

Capacidad de reporte para usuarios incorporada en la interfaz del proveedor de IA.

Oficina independiente de ombudsman para revisar quejas sobre sistemas de IA.

Posibilidad de solicitar la eliminación de ciertas afirmaciones confidenciales de los datos de entrenamiento.

Derecho de acción legal si el daño reputacional o financiero alcanza cierto umbral.

Base de datos pública que registra quejas de uso indebido/daño de sistemas de IA.

Organismos de certificación para auditar las prácticas responsables de desarrollo de IA de una empresa.

Proporcionar a las personas afectadas canales accesibles de reparación junto con transparencia puede ayudar a que la supervisión sea justa y significativa.

¿Cómo pueden los desarrolladores implementar prácticas de datos responsables al construir sistemas de IA?

Realizar revisiones éticas de todas las fuentes de datos de entrenamiento y documentar.

Restringir los conjuntos de datos solo a lo mínimo necesario para la tarea específica.

Enmascarar cualquier identificador personal o atributo confidencial en los datos.

Proporcionar mecanismos de exclusión voluntaria para que las personas excluyan sus datos.

Aplicar técnicas de privacidad diferencial para preservar el anonimato.

Almacenamiento y transmisión criptográficamente seguros de datos.

Controles de acceso estrictos y modelo de permisos.

Monitoreo y pruebas continuos para detectar posibles fugas de datos.

Protocolos detallados de gestión de datos y capacitación de empleados.

Una administración proactiva de datos adaptada a los riesgos puede mantener la privacidad y evitar abusos.

¿Cómo podrían los reguladores supervisar los sistemas de IA sin comprometer la propiedad intelectual o sofocar la innovación?

Centrar las auditorías y evaluaciones en las salidas y comportamientos del modelo en lugar del código subyacente.

Permitir inicialmente auto-certificaciones de adherencia a las normas, con verificaciones de terceros con el tiempo.

Emplear un enfoque escalonado que aumente con la proliferación en lugar de restricciones preventivas generales.

Incentivar la investigación en técnicas de seguridad como enclaves seguros y computación confidencial.

Fomentar estándares abiertos en torno a la transparencia y la responsabilidad sobre mandatos propietarios rígidos.

Proteger a los desarrolladores de buena fe que intentan responsablemente mitigar los riesgos emergentes frente a la aplicación excesivamente celosa.

Mantener la flexibilidad para modificar los marcos expeditivamente en función de nuevos aprendizajes y casos de uso.

Una supervisión juiciosa que enfatice los resultados sobre las implementaciones puede promover una IA responsable al tiempo que respeta la propiedad intelectual.

¿Cuáles son algunas señales de advertencia de que un sistema de IA podría estar produciendo contenido dañino, inexacto o sesgado?

Errores desproporcionados con respecto a grupos sociales particulares.

Generar escenarios o afirmaciones factualmente improbables sin advertencias.

Declaraciones basadas en razonamientos falaces o suposiciones especulativas.

Aseveraciones sin fuente más allá del conocimiento común.

Falsa confianza proyectando autoridad más allá de las capacidades del sistema.

Respuestas con el potencial de reforzar estereotipos peligrosos.

Resultados desalineados sustancialmente con los valores de la empresa propietaria.

Las auditorías proactivas que evalúan estos factores antes y después del despliegue pueden identificar riesgos.

¿Cuáles son algunas formas en que los proveedores podrían permitir usos beneficiosos de la IA y al mismo tiempo restringir aplicaciones dañinas?

Permitir listas blancas de casos de uso permisibles y bloquear todos los demás por defecto.

Limitar la tasa de consultas generativas para frenar posibles desinformaciones virales.

Cifrar ciertas capacidades generativas accesibles solo para entidades verificadas.

Marcar medios sintéticos con watermarks para disuadir tergiversaciones.

Dirigir ingresos de aplicaciones beneficiosas para compensar daños potenciales.

Con un diseño reflexivo, los proveedores pueden orientar las aplicaciones hacia el bien común.

¿De qué forma los sistemas de IA podrían causar daños financieros injustos a los consumidores?

Generar asesoramiento o recomendaciones de inversión defectuosos que provoquen pérdidas.

Facilitar fijación de precios depredadora al coludirse con competidores.

Denegación automática de préstamos o seguros a grupos protegidos.

Permitir fraudes sintéticos sofisticados difíciles de detectar.

Manipulación personalizada de consumidores para que sobre gasten.

Socavar ingresos de creadores humanos con contenido sintético barato.

Supervisión responsable acorde a capacidades generativas emergentes puede ayudar a frenar daños financieros injustos sin obstaculizar innovación.

¿Qué opciones tienen las personas que se sientan difamadas o tergiversadas por un sistema de IA?

Capacidad de reporte en la interfaz del proveedor.

Oficina de ombudsman independiente para revisar quejas.

Solicitar eliminación de afirmaciones confidenciales en datos de entrenamiento.

Acción legal si el daño reputacional o financiero es significativo.

Base de datos pública registrando quejas de uso indebido/daño.

Organismos certificadores para auditar prácticas responsables.

Canales accesibles de reparación con transparencia pueden hacer que la supervisión sea justa y significativa.

¿Cómo pueden implementar los desarrolladores prácticas de datos responsables?

Revisión ética de fuentes de datos y documentación.

Restringir conjuntos de datos al mínimo necesario.

Enmascarar identificadores personales y atributos confidenciales.

Mecanismos de exclusión voluntaria de datos personales.

Técnicas de privacidad diferencial para anonimato.

Almacenamiento y transmisión criptográficamente seguros.

Estrictos controles de acceso y permisos.

Monitoreo y pruebas continuos de fugas de datos.

Protocolos y capacitación para gestión responsable de datos.

Administración proactiva de datos acorde a riesgos puede mantener privacidad y evitar abusos.

¿Cómo podrían regular los sistemas de IA sin comprometer propiedad intelectual o innovar?

Enfocar auditorías y evaluaciones en resultados del modelo, no en código.

Permitir auto-certificaciones iniciales con verificaciones independientes posteriormente.

Enfoque escalonado acorde a proliferación, no restricciones preventivas amplias.

Incentivar investigación en técnicas de seguridad y confidencialidad.

Fomentar estándares abiertos sobre transparencia y responsabilidad.

Proteger desarrolladores responsables de aplicación excesivamente celosa.

Mantener flexibilidad para modificar marcos según nuevos aprendizajes.

Supervisión juiciosa que enfatice resultados sobre implementaciones puede promover una IA responsable respetando la propiedad intelectual.