A indústria de IA está tentando mudar a definição de “IA de código aberto”
A Open Source Initiative publicou (artigo de notícias aqui) sua definição de “IA de código aberto” e ela é ruim. Ele permite dados e métodos de treinamento privados. Permite que o desenvolvimento seja feito de forma privada. Da rede neural, dados de treinamento é algo código-fonte – é como o modelo é programado – a descrição não tem sentido.
E é confuso; muitos modelos de IA de “código aberto” – como o LLAMA – são de código aberto apenas no nome. Mas a OSI parece ter sido cooptada por participantes da indústria que querem tanto os segredos da empresa quanto o rótulo de “código aberto”. (Aqui está outra resposta para a explicação.)
Vale a pena lutar por isso. Precisamos de uma opção de IA pública, e o código aberto – o verdadeiro código aberto – é uma parte necessária disso.
Mas embora código aberto deva significar código aberto, existem alguns modelos de código aberto que precisam de algum tipo de explicação. Há um enorme campo de pesquisa sobre métodos integrados e de preservação de privacidade para treinamento de modelos de ML e acho que isso é bom. E OSI tem razão aqui:
Por que vocês permitem a divulgação de determinados dados de treinamento?
Porque queremos que a IA de código aberto exista mesmo em áreas onde os dados não podem ser partilhados legalmente, por exemplo, a IA médica. As leis que permitem a formação sobre dados muitas vezes restringem a partilha desses mesmos dados para proteger os direitos de autor ou outros interesses. As leis de privacidade também dão ao indivíduo o direito de controlar as suas informações sensíveis, tais como decisões sobre a sua saúde. Da mesma forma, grande parte do conhecimento indígena do mundo é protegido de formas que são inconsistentes com estruturas desenvolvidas posteriormente de direitos exclusivos e partilha.
Que tal chamar isso de “pesos abertos” e não de código aberto?
Publicado em 8 de novembro de 2024 às 7h03 • 0 comentários
Foto da barra lateral de Bruce Schneier por Joe MacInnis.