Apple retrasa lanzamiento de IA generativa; cumplirá reglas de la Casa Blanca para su uso

La compañía se ceñirá a cumplir reglas de Estados Unidos con relación a las nuevas funciones.

El iPhone 16 será lanzado a la venta en septiembre del 2024 (Especial)

La Casa Blanca informó el viernes que Apple se sumó a más de una decena de compañías tecnológicas que se comprometieron a cumplir reglas que limiten los riesgos de la inteligencia artificial (IA) generativa.

De hecho, de acuerdo con Bloomberg, el lanzamiento de la IA generativa no estará listo para cuando salga a la venta el iPhone 16, sino que lo hará hasta la presentación del sistema operativo iOS 18.1.

Así es el celular 'Edición Olímpica' que recibieron los atletas en París 2024 | VIDEO

Amazon, Google, Microsoft y OpenAI son algunas de las empresas, rivales en el sector, que se unieron a las autoridades de Estados Unidos para realizar este pacto voluntario hace un año.

En la ocasión, la administración del presidente Joe Biden dijo que había logrado el compromiso de las compañías "para avanzar hacia un desarrollo seguro y transparente de la tecnología de IA".

A inicios de junio, Apple lanzó Apple Intelligence, que busca optimizar el uso de IA generativa en los dispositivos de la empresa, como el iPhone y la Mac. También prevé una alianza con OpenAI, que permitirá que la aplicación ChatGPT pueda ser usada en sus teléfonos inteligentes a pedido del usuario.

La aplicación de la IA generativa, que permite producir rápidamente imágenes, sonidos y videos con una simple demanda verbal, prevé importantes progresos en áreas como la medicina, pero genera temores sobre un aumento de la desinformación, la pérdida masiva de empleos o el robo de propiedad intelectual.

También enciende las alertas ante el posible uso de la IA por parte de régimenes autoritarios o de organizaciones criminales.


Las salvaguardas acordadas con las tecnológicas incluyen la simulación de ataques en modelos de IA, una técnica llamada "red teaming" que busca exponer posibles vulnerabilidades.

Según la Casa Blanca, los modelos o sistemas de prueba de IA deben incluir riesgos para la sociedad y de seguridad nacional, así como ciberataques y el desarrollo de armas biológicas.

El compromiso suscrito también prevé que las empresas compartan información entre ellas y con el gobierno sobre los riesgos de la IA y de tentativas de burlar las defensas.

A finales del año pasado, Biden firmó una orden ejecutiva estableciendo nuevos estándares de seguridad para los sistemas de IA y exigiendo que los desarrolladores compartan los resultados de sus pruebas de seguridad con el gobierno estadounidense.

La Casa Blanca indicó que la orden ejecutiva incluía la mayor serie de acciones "nunca antes adoptada para proteger a los estadounidenses del riesgo potencial de los sistemas de IA".


NOTAS MÁS VISTAS