OpenAI Cria Equipe para Mitigar Riscos Catastróficos da IA
Com a liderança de um professor do MIT, a equipe "Preparedness" também está desenvolvendo políticas para orientar o desenvolvimento responsável da IA.
A OpenAI anunciou recentemente a formação da equipe Preparedness, encarregada de supervisionar o desenvolvimento de modelos de IA de "fronteira" altamente capazes que podem representar riscos catastróficos, com relação a segurança cibernética e possíveis ameaças "extintas", como pandemias e guerra nuclear. Esta equipe garantirá que os modelos de IA estejam alinhados com os parâmetros de segurança da empresa.
A equipe será liderada por Aleksander Madry, do MIT, e também está trabalhando em uma Política de Desenvolvimento Baseada em Risco para orientar como a IA avançada é abordada. A OpenAI está incentivando contribuições externas para abordar o uso indevido da IA e seus impactos negativos.
Essa iniciativa reflete a preocupação crescente com os riscos associados ao desenvolvimento de modelos de IA avançados. Mesmo que a IA tenha trazido avanços notáveis, ela também apresenta desafios, incluindo a disseminação de desinformação e o uso indevido de imagens.