A empresa de inteligência artificial OpenAI, responsável por serviços como o ChatGPT, anunciou a criação de um comitê independente de segurança. O órgão será responsável por avaliar e fiscalizar as atividades da própria companhia.
O Safety and Security Committee (Comitê de Proteção e Segurança, em tradução livre para o português) já existia antes, mas operava na estrutura da própria OpenAI. Agora, ele atua de forma paralela e sem relação direta com os funcionários, embora tenha contato com representantes das equipes de segurança e o conselho diretor.
Basicamente, o conselho vai supervisionar processos que envolvam o desenvolvimento de modelos de linguagem e a aplicação deles em serviços da OpenAI. Ele receberá relatórios frequentes da companhia e, no processo, pode até atrasar ou pedir revisões de lançamentos caso encontre preocupações graves de privacidade ou proteção digital.
Em termos de funcionamento, ele é similar ao que a Meta já adotou há alguns anos com o seu próprio comitê, que avalia várias questões polêmicas nas plataformas digitais e nem sempre têm as demandas atendidas pela marca.
O primeiro trabalho do comitê como órgão independente foi revisar a estrautura do o1, o novo modelo de linguagem da OpenAI.
Mudanças na OpenAI
A decisão de mudança foi tomada após uma análise de 90 dias feita pelo próprio comitê sobre práticas de transparência da companhia. Outra medida tomada foi a saída do cofundador e CEO da OpenAI, Sam Altman, que ocupava uma posição no conselho mesmo sendo o gerente executivo — ou seja, ele estava fiscalizando a si mesmo.
A nova equipe será liderada por Zico Kolter, que é diretor do Departamento de Aprendizado de Máquina na Carnegie Mellon University. Outros nomes confirmados são Adam D’Angelo, CEO e cofundador do Quora, o general aposentado Paul Nakasone e Nicole Seligman, que atua no conselho da Sony.
A alteração é mais um passo na provável alteração da companhia para a estrutura de uma empresa com fins lucrativos, algo que deve acontecer em 2025.