O plano complicado da Apple para melhorar sua IA enquanto protege a privacidade

A Apple diz que encontrou uma maneira de melhorar seus modelos de IA sem treinar os dados de seus usuários ou mesmo copiá -los de seus iPhones e Macs. Em uma postagem de blog relatada pela primeira vez sobre por Bloomberga empresa descreveu seus planos de ter dispositivos comparar um conjunto de dados sintéticos com amostras de e -mails ou mensagens recentes de usuários que optaram por seu programa de análise de dispositivos.
Os dispositivos da Apple poderão determinar quais entradas sintéticas são mais próximas de amostras reais, que eles transmitirão da empresa enviando “apenas um sinal indicando qual das variantes está mais próxima dos dados amostrados”. Dessa forma, de acordo com a Apple, ele não acessa dados do usuário e os dados nunca deixam o dispositivo. A Apple usará as amostras falsas mais frequentemente escolhidas para melhorar suas saídas de texto de IA, como resumos de email.
Atualmente, a Apple treina seus modelos de IA apenas em dados sintéticos, potencialmente resultando em respostas menos úteis, de acordo com BloombergMark Gurman. A Apple lutou com o lançamento de seus principais recursos da Apple Intelligence, ao recuperar o lançamento de alguns recursos e substituiu a cabeça de sua equipe Siri.
Mas agora, a Apple está tentando mudar as coisas, introduzindo seu novo sistema de treinamento de IA em uma versão beta do iOS e iPados 18.5 e MacOS 15.5, de acordo com Gurman.
A Apple está conversando com o uso de um método chamado privacidade diferencial para manter os dados do usuário privados desde pelo menos 2016 com o lançamento do iOS 10 e já o usaram para melhorar o recurso Genmoji movido a IA. Isso também se aplica aos novos planos de treinamento de IA da empresa, pois a Apple diz que a introdução de informações randomizadas em um conjunto de dados mais amplo ajudará a impedir que ele vincule dados a qualquer pessoa.