INTELIGENCIA ARTIFICIAL E INCERTIDUMBRE LEGAL: LOS PELIGROS DEL PROYECTO DE LEY SB 1047 DE CALIFORNIA PARA LOS DESARROLLADORES.

Facebook
Twitter
Reddit
LinkedIn
Telegram
WhatsApp

INTELIGENCIA ARTIFICIAL E INCERTIDUMBRE LEGAL: LOS PELIGROS DEL PROYECTO DE LEY SB 1047 DE CALIFORNIA PARA LOS DESARROLLADORES.

Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@hotmail.com

RESUMEN

La publicación del Dr. Assad Abbas, ilustra como el Proyecto de ley que promulgaría el Estado de California, Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera genera incertidumbre al exigir que un desarrollador, antes de comenzar a entrenar inicialmente un modelo cubierto cumpla con varios requisitos, incluida la implementación de la capacidad de ejecutar rápidamente un apagado completo (Kill Switch) e implementar un protocolo de seguridad y protección escrito y separado, según se especifica.

El Proyecto de ley exigiría además que un desarrollador conserve una copia sin censura del protocolo de seguridad y protección durante el tiempo que el modelo cubierto esté disponible para uso comercial o público más 5 años, incluidos los registros y las fechas de cualquier actualización o revisión, y exigiría que un desarrollador otorgue al Fiscal General acceso al protocolo de seguridad y protección sin censura, amenzando la creación intelectual.

El proyecto de ley prohibiría igualmente a un desarrollador utilizar un modelo cubierto o un derivado de modelo cubierto para un propósito que no esté relacionado exclusivamente con la capacitación o la evaluación razonable del modelo cubierto o el cumplimiento de la ley estatal o federal, si existe un riesgo irrazonable de que el modelo cubierto o el derivado de modelo cubierto causen o permitan materialmente un daño crítico.

El proyecto de ley requeriría igualmente que un desarrollador, a partir del 1 de enero de 2026, contrate anualmente a un auditor externo para que realice una auditoría independiente sobre el cumplimiento de esas disposiciones.

El enlace al Proyecto de Ley en inglés se encuentra enhttps://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@hotmail.com

____________________________________________________________________

IA e incertidumbre legal: los peligros de la SB 1047 de California para los desarrolladores.

Publicado 22 de agosto de 2024

Por Dr. Assad Abbas

Inteligencia Artificial (AI) Ya no es un concepto futurista; está aquí y está transformando industrias desde la atención médica hasta las finanzas, desde realizar diagnósticos médicos en segundos hasta que el servicio al cliente sea manejado sin problemas por chatbots. La IA está cambiando la forma en que operan las empresas y cómo vivimos nuestras vidas. Pero esta poderosa tecnología también plantea algunos desafíos legales importantes.

Proyecto de ley 1047 del Senado de California (SB 1047) tiene como objetivo hacer que la IA sea más segura y responsable mediante el establecimiento de directrices estrictas para su desarrollo y despliegue. Esta legislación exige transparencia en los algoritmos de IA, garantizando que los desarrolladores revelen cómo sus sistemas de IA toman decisiones.

Si bien estas medidas tienen como objetivo mejorar la seguridad y la responsabilidad, introducen incertidumbre y posibles obstáculos para los desarrolladores que deben cumplir con estas nuevas regulaciones. Comprender la SB 1047 es esencial para los desarrolladores de todo el mundo, ya que podría sentar un precedente para futuras regulaciones de IA a nivel mundial, influyendo en cómo se crean e implementan las tecnologías de IA.

Entendiendo la SB 1047 de California

La SB 1047 de California tiene como objetivo regular el desarrollo y la implementación de tecnologías de inteligencia artificial dentro del estado. El proyecto de ley se presentó en respuesta a las crecientes preocupaciones sobre el uso ético de la IA y los riesgos potenciales que plantea para la privacidad, la seguridad y el empleo. Los legisladores detrás de la SB 1047 argumentan que estas regulaciones son necesarias para garantizar que las tecnologías de inteligencia artificial se desarrollen de manera responsable y transparente.

Uno de los aspectos más controvertidos de la SB 1047 es el requisito para que los desarrolladores de IA incluyan un Kill Switch en sus sistemas. Esta disposición exige que los sistemas de IA deben tener la capacidad de apagarse inmediatamente si muestran un comportamiento dañino. Además, el proyecto de ley introduce cláusulas de responsabilidad estrictas que responsabilizan a los desarrolladores de cualquier daño causado por sus tecnologías de inteligencia artificial. Estas disposiciones abordan preocupaciones de seguridad y responsabilidad e introducen desafíos importantes para los desarrolladores.

En comparación con otras regulaciones de IA en todo el mundo, la SB 1047 es estricta. Por ejemplo, el Ley de IA de la Unión Europea clasifica las aplicaciones de IA por nivel de riesgo y aplica las regulaciones en consecuencia. Si bien tanto el SB 1047 como la Ley de IA de la UE tienen como objetivo mejorar la seguridad de la IA, el SB 1047 se considera más estricto y menos flexible. Esto hace que los desarrolladores y las empresas se preocupen por las limitaciones de la innovación y las cargas adicionales de cumplimiento.

La incertidumbre jurídica y sus consecuencias no deseadas

Uno de los mayores desafíos que plantea la SB 1047 es la inseguridad jurídica que crea. El lenguaje del proyecto de ley a menudo no es claro, lo que genera diferentes interpretaciones y confusión sobre lo que los desarrolladores deben hacer para cumplirlo. Términos como “comportamiento dañino y apagado inmediato”no están claramente definidos, lo que deja a los desarrolladores conjeturando cómo se ve realmente el cumplimiento. Esta falta de claridad podría dar lugar a una aplicación inconsistente y a demandas judiciales, ya que los tribunales intentan interpretar las disposiciones del proyecto de ley caso por caso.

Este temor a las repercusiones legales puede limitar la innovación, haciendo que los desarrolladores sean demasiado cautelosos y alejándolos de proyectos ambiciosos que podrían hacer avanzar la tecnología de IA. Este enfoque conservador puede ralentizar el ritmo general de los avances de la IA y obstaculizar el desarrollo de soluciones innovadoras. Por ejemplo, una pequeña startup de IA que trabaja en una aplicación sanitaria novedosa podría enfrentar retrasos y mayores costos debido a la necesidad de implementar medidas de cumplimiento complejas. En casos extremos, el riesgo de responsabilidad legal podría asustar a los inversores y amenazar la supervivencia de la startup.

Impacto en el desarrollo y la innovación de la IA

La SB 1047 puede afectar significativamente el desarrollo de la IA en California, lo que generará costos más altos y tiempos de desarrollo más prolongados. Los desarrolladores deberán desviar recursos de la innovación hacia esfuerzos legales y de cumplimiento.

Implementando un Kill Switch y cumplir con las cláusulas de responsabilidad requerirá una inversión considerable de tiempo y dinero. Los desarrolladores deberán colaborar con equipos legales, lo que puede quitar fondos de investigación y desarrollo.

El proyecto de ley también introduce regulaciones más estrictas sobre el uso de datos para proteger la privacidad. Si bien son beneficiosas para los derechos de los consumidores, estas regulaciones plantean desafíos para los desarrolladores que dependen de grandes conjuntos de datos para entrenar sus modelos. Equilibrar estas restricciones sin comprometer la calidad de las soluciones de IA requerirá mucho trabajo.

Debido al miedo a los problemas legales, los desarrolladores pueden dudar a la hora de experimentar con nuevas ideas, especialmente aquellas que implican mayores riesgos. Esto también podría afectar negativamente a la comunidad de código abierto, que prospera gracias a la colaboración, ya que los desarrolladores podrían proteger más su trabajo para evitar posibles problemas legales. Por ejemplo, innovaciones pasadas como AlphaGo de Google, que hizo avanzar significativamente la IA, a menudo implicaba riesgos sustanciales. Es posible que tales proyectos sólo hubieran sido posibles con las restricciones impuestas por la SB 1047.

Desafíos e implicaciones de la SB 1047

La SB 1047 afecta a empresas, investigaciones académicas y proyectos del sector público. Las universidades e instituciones públicas, que a menudo se centran en promover la IA para el bien público, pueden enfrentar desafíos importantes debido a las restricciones del proyecto de ley sobre el uso de datos y la Kill Switch requisito. Estas disposiciones pueden limitar el alcance de la investigación, dificultar la financiación y sobrecargar a las instituciones con requisitos de cumplimiento que tal vez no estén preparados para manejar.

Las iniciativas del sector público, como las destinadas a mejorar la infraestructura urbana con IA, dependen en gran medida de las contribuciones y la colaboración de código abierto. Las estrictas regulaciones de la SB 1047 podrían obstaculizar estos esfuerzos, ralentizando las soluciones impulsadas por IA en áreas críticas como la atención médica y el transporte. Además, los efectos a largo plazo del proyecto de ley sobre los futuros investigadores y desarrolladores de IA son preocupantes, ya que los estudiantes y jóvenes profesionales podrían verse disuadidos de ingresar al campo debido a la percepción de riesgos e incertidumbres legales, lo que llevaría a una posible escasez de talento.

Económicamente, la SB 1047 podría impactar significativamente el crecimiento y la innovación, particularmente en centros tecnológicos como Silicon Valley. La IA ha impulsado la creación de empleo y la productividad, pero las regulaciones estrictas podrían frenar este impulso, lo que provocaría pérdidas de empleo y una reducción de la producción económica. A escala global, el proyecto de ley podría poner a los desarrolladores estadounidenses en desventaja en comparación con países con regulaciones de IA más flexibles, lo que resultaría en una fuga de cerebros y una pérdida de ventaja competitiva para la industria tecnológica estadounidense.

Las reacciones de la industria, sin embargo, son mixtas. Si bien algunos apoyan los objetivos del proyecto de ley de mejorar la seguridad y la responsabilidad de la IA, otros argumentan que las regulaciones son demasiado restrictivas y podrían sofocar la innovación. Se necesita un enfoque más equilibrado para proteger a los consumidores sin sobrecargar a los desarrolladores.

Socialmente, la SB 1047 podría limitar el acceso de los consumidores a servicios innovadores impulsados ​​por la IA. Garantizar un uso responsable de la IA es esencial, pero esto debe equilibrarse con la promoción de la innovación. La narrativa en torno a la SB 1047 podría influir negativamente en la percepción pública de la IA, y los temores sobre los riesgos de la IA podrían eclipsar sus beneficios.

Equilibrar la seguridad y la innovación es esencial para la regulación de la IA. Si bien la SB 1047 aborda preocupaciones importantes, enfoques alternativos pueden lograr estos objetivos sin obstaculizar el progreso. La categorización de las aplicaciones de IA por riesgo, similar a la Ley de IA de la UE, permite regulaciones flexibles y personalizadas. Las normas y mejores prácticas impulsadas por la industria también pueden garantizar la seguridad y fomentar la innovación.

Los desarrolladores deben adoptar mejores prácticas, como pruebas sólidas, transparencia y participación de las partes interesadas para abordar las preocupaciones éticas y generar confianza. Además, la colaboración entre los formuladores de políticas, los desarrolladores y las partes interesadas es esencial para lograr regulaciones equilibradas. Los formuladores de políticas necesitan el aporte de la comunidad tecnológica para comprender las implicaciones prácticas de las regulaciones, mientras que los grupos industriales pueden abogar por soluciones equilibradas.

Lo más importante es…

La SB 1047 de California busca hacer que la IA sea más segura y responsable, pero también presenta desafíos importantes para los desarrolladores. Las regulaciones estrictas pueden obstaculizar la innovación y crear pesadas cargas de cumplimiento para las empresas, las instituciones académicas y los proyectos públicos.

Necesitamos enfoques regulatorios flexibles y estándares impulsados ​​por la industria para equilibrar la seguridad y la innovación. Los desarrolladores deben adoptar las mejores prácticas y colaborar con los formuladores de políticas para crear regulaciones justas. Es esencial garantizar que el desarrollo responsable de la IA vaya de la mano del progreso tecnológico para beneficiar a la sociedad y proteger los intereses de los consumidores.

El Estudio Jurídico FERREYROS&FERREYROS es una firma especializada en aspectos legales y regulatorios relacionados con las Nanotecnologías, materia transversal, relacionada con la integración y convergencia de tecnologías (Nanotecnologías, Biotecnologías, Tecnologías de la Información y ciencias Cognitivas) (NBIC).

El Estudio realiza asesorías, consultorías, auditorías, formaciones, investigaciones y defensas en favor de agentes públicos y empresas privadas en Contenidos y Servicios vinculados con las NBIC, en todas las fases y etapas del negocio jurídico.

Desde la concepción, elaboración de proyectos, estudio de impacto, gestión, declaraciones y obtención de las autorizaciones y licencias, incluyendo negociación y ejecución de contratos y resolución de conflictos

Facebook
Twitter
Reddit
LinkedIn
Telegram
WhatsApp

Carlos Ferreyros

Doctor en Derecho. Magister en Informática Jurídica y Derecho Informático

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Te puede interesar