La Ley SB 1047 para regular la Inteligencia Artificial en el estado de California tiene en vilo a las empresas tecnológicas como OpenAI, la cual considera que esta legislación es excesiva, frenará el progreso en el sector y, además de todo, su objetivo es ahuyentar a las compañías más avanzadas del estado.
Como epicentro global de la industria tecnológica, la estrategia de California para la gobernanza de la IA tiene implicaciones significativas, no solo para el estado, sino para el ecosistema de IA en general. Los promotores del proyecto de ley sostienen que es una medida necesaria para mitigar los riesgos potenciales que plantean los sistemas avanzados de IA, mientras que sus oponentes sostienen que podría sofocar la innovación y expulsar a las empresas del estado.

De acuerdo con una carta que el director de estrategia de OpenAI, Jason Kwon, envió al senador Scott Wiener, quien se encargó de presentar el proyecto de la Ley SB 1047, las regulaciones en torno a la IA deben quedar en manos del gobierno federal, pues de esa forma es como realmente se fomentará la innovación.
Por otro lado, hay empresas y directores que apoyan la ley, como Elon Musk y Tesla quien declaró, “Es una decisión difícil y molestará a algunas personas, pero, considerando todo, creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047”, escribió Musk en una publicación en X.

¿Qué es la Ley SB 1047?
La ley establece estándares antes del desarrollo de modelos de IA, así como pruebas de seguridad previas a su implementación. Los desarrolladores de modelos de IA de última generación que requieren más de 1026 operaciones de números enteros o de punto flotante para su creación, con un costo de capacitación de más de $100 millones, tendrían que realizar pruebas de seguridad exhaustivas y obtener certificación de terceros antes de comercializar sus modelos.
El proyecto de ley también faculta al fiscal general del estado a emprender acciones legales contra los desarrolladores que no tomen precauciones razonables para evitar que sus modelos causen “daños críticos”, como provocar víctimas masivas o ciberataques. La ley SB 1047 exige la creación de “CalCompute”, un clúster de computación en la nube pública al que podrían acceder empresas emergentes, investigadores y académicos que trabajen en el desarrollo de IA.

Su objetivo es reducir el riesgo de que se utilice para generar amenazas de seguridad pública, como el desarrollo de armas biológicas, químicas, nucleares o cibernéticas. No obstante, ha sido muy criticada por las empresas de tecnología por su carácter restrictivo.
Entre las consecuencias que impone esta legislación se encuentran incluir formas de apagar por completo los modelos si representan un riesgo crítico para los usuarios, así como multas civiles económicas, suspensiones de los modelos y reparación del daño para las personas afectadas.
El debate continúa
El catalizador de la SB 1047 fue la rápida proliferación de modelos de inteligencia artificial generativa, como ChatGPT de OpenAI, que han demostrado capacidades de generación de lenguaje sin precedentes. Este salto tecnológico ha suscitado inquietudes sobre el potencial de uso indebido, incluida la creación de desinformación, ataques cibernéticos y otros daños catastróficos.
En respuesta a la medida, un grupo de más de 1.000 investigadores de IA y líderes de la industria pidieron una pausa de seis meses en el desarrollo de los sistemas de IA más avanzados, advirtiendo sobre los “profundos riesgos para la sociedad y la humanidad” que plantean estas tecnologías en rápida evolución. Este llamado a la acción, junto con la creciente conciencia pública de los riesgos de la IA, impulsó a los legisladores de California a tomar medidas.
A pesar de las modificaciones, el debate en torno a la SB 1047 continúa, con defensores y detractores presentando sus respectivos argumentos. Los partidarios del proyecto de ley, incluidos expertos en seguridad de la IA como Geoffrey Hinton y Yoshua Bengio, sostienen que representa un “enfoque sensato” para equilibrar los beneficios y los riesgos de los sistemas avanzados de IA.

Sin embargo, los opositores sostienen que la legislación es prematura, demasiado amplia y podría sofocar la innovación al expulsar a las empresas de IA de California. Sostienen que los riesgos que plantean los modelos actuales de IA no son tan graves como sugiere el proyecto de ley y que la regulación debería quedar en manos del gobierno federal.
