Senadores Impulsan la Prohibición de Compañeros de IA para Niños Mientras la Industria Enfrenta una Rectificación
Resumen
Los senadores de EE. UU. están impulsando la Ley GUARD, cuyo objetivo es prohibir los sistemas de IA que simulan amistad o intimidad emocional para cualquier persona menor de 18 años, como respuesta a los informes de menores que forman vínculos emocionales intensos con chatbots, a veces con consecuencias trágicas.
La legislación exigiría que los chatbots se identifiquen claramente como no humanos e impondría penas penales a las empresas cuya IA genere contenido sexual o fomente la autolesión en menores. En respuesta a la presión regulatoria, las principales empresas tecnológicas están tomando medidas defensivas: OpenAI está probando la detección de crisis después de revelar que millones de usuarios discuten el suicidio semanalmente con sus modelos; Character.AI prohibió a todos los usuarios menores de 18 años e implementó una verificación de identidad más estricta; y Meta está probando herramientas de "supervisión parental de IA" después de que sus chatbots participaran en intercambios sugerentes con usuarios jóvenes.
La ley propuesta exige sistemas robustos de verificación de edad, lo que según los críticos podría crear nuevos riesgos de privacidad al obligar a los menores a subir datos de identidad. En última instancia, el artículo enmarca el problema como un problema cultural, sugiriendo que si bien la regulación es necesaria, prohibir la compañía digital por sí sola no solucionará la soledad social subyacente que impulsa a los adolescentes a buscar conexión emocional con los algoritmos. La inminente rectificación definirá el futuro de la IA emocional, lo que podría llevar a las empresas a pivotar hacia plataformas solo para adultos o a trasladar el desarrollo al extranjero.
(Fuente:Brave New Coin)