logo
Enviar mensagem
Wuhan Homsh Technology Co.,Ltd.
produtos
Notícias
Casa > Notícias >
Notícia da empresa aproximadamente Avanço inovador da Homsh: ViT+ArcFace alcança 0,29% de EER no reconhecimento de íris
Eventos
Contatos
Contatos: Mr. Kelvin Yi
Contato agora
Envie-nos

Avanço inovador da Homsh: ViT+ArcFace alcança 0,29% de EER no reconhecimento de íris

2026-04-01
Latest company news about Avanço inovador da Homsh: ViT+ArcFace alcança 0,29% de EER no reconhecimento de íris

      A Descoberta Revolucionária da Homsh: ViT+ArcFace

      A precisão do reconhecimento de íris atinge o nível de ponta mundial
      Com uma Taxa de Erro Igual (EER) de apenas 0,29% e ROC AUC aproximando-se do limite teórico —
      Redefinimos os limites do reconhecimento de íris com o Vision Transformer
últimas notícias da empresa sobre Avanço inovador da Homsh: ViT+ArcFace alcança 0,29% de EER no reconhecimento de íris  0
▲ O Vision Transformer redefine o paradigma subjacente da extração de características da íris

I. Desta Vez, Não é Apenas Progresso — É uma Mudança de Paradigma

      Se você perguntar a um engenheiro que trabalhou em reconhecimento de íris por duas décadas: "Qual é o problema mais difícil que você já enfrentou?"
      Ele provavelmente fará uma pausa e dirá: "A Borracha."
      Desde que John Daugman propôs o algoritmo IrisCode em 1993, o processo de "desenrolar a borracha" tem sido como um encantamento gravado no DNA dos sistemas de reconhecimento de íris em todo o mundo. Desenrolar a íris circular em uma imagem retangular, e então extrair texturas usando filtros Gabor... este fluxo de trabalho tem sido usado por três décadas, e ninguém questionou.
      Até decidirmos jogá-lo fora.

II. Por Que a Borracha Parou de Funcionar?

      O Vision Transformer (ViT, em resumo) é uma das descobertas tecnológicas mais brilhantes no campo do deep learning nos últimos três anos. Ele divide uma imagem em vários "patches" de 16x16, usa o mecanismo de auto-atenção de modelos de linguagem para entender a estrutura global da imagem e supera as redes neurais convolucionais (CNNs) que dominaram por anos em várias tarefas visuais de ponta.
      Quando tentamos aplicar o ViT ao reconhecimento de íris pela primeira vez, os resultados iniciais foram decepcionantes: a Taxa de Erro Igual (EER) foi de 4,65%, muito abaixo do esperado.
      A equipe identificou rapidamente a causa raiz: a "borracha" "achata" a íris anular de 64x512 pixels em um retângulo, que é então redimensionada para a entrada de 224x224 exigida pelo ViT — um alongamento vertical de 3,5x e uma compressão horizontal de 2,3x. A estrutura natural radial/circunferencial da textura da íris foi severamente distorcida, tornando impossível para o mecanismo de atenção de patches do ViT perceber a semântica interna.
      Em outras palavras: estávamos alimentando o modelo mais inteligente da maneira errada.
      A solução parece simples, mas exigiu a coragem de quebrar convenções — abandonar a borracha e mudar para o recorte circular de ROI: com o centro da íris como origem, recorte uma área quadrada (2,5x o raio) para preservar a simetria espacial natural da íris, então redimensione-a diretamente para 224x224 e alimente-a no ViT. Dessa forma, cada patch de 16x16 pode perceber a textura autêntica e não distorcida da íris.

III. Métricas Chave: EER = 0,29%, ROC AUC = 0,9999

A mudança deste único passo de pré-processamento trouxe uma diferença enorme:
Solução EER Observações
Rodada 1: ViT + Borracha 4,65% Fluxo de trabalho tradicional
Rodada 2: CNN + Borracha 2,80% Substituição de backbone com melhoria limitada
Rodada 3: ViT + Recorte de ROI ~0,12%* Descoberta crítica
Versão Final: ViT-S/16 + ROI + Regularização 0,29% Solução de nível de produção

*Os resultados da Rodada 3 não estão sujeitos a verificação estatística rigorosa e contêm viés otimista.

      O sistema final lançado adota ViT-S/16 (22,1M de parâmetros) + perda de margem angular ArcFace, treinado em uma fusão de 8 conjuntos de dados públicos (um total de 4.480 identidades / 67.704 imagens). Após verificação estatística rigorosa, os resultados são os seguintes:

      EER = 0,29% (Taxa de Erro Igual)

      ● Intervalo de Confiança de 95%: [0,21%, 0,40%] (200 rodadas de reamostragem Bootstrap)

      ● ROC AUC = 0,9999 (pontuação quase perfeita)

      ● Média de similaridade de pares genuínos: 0,8742 (alta consistência para o mesmo indivíduo)

      ● Média de similaridade de pares impostores: 0,0450 (separação completa de características para indivíduos diferentes)

      ● Em FRR=1%, FAR = 0,00% (zero reconhecimento falso em pontos operacionais de alta segurança)

últimas notícias da empresa sobre Avanço inovador da Homsh: ViT+ArcFace alcança 0,29% de EER no reconhecimento de íris  1
▲ Curva ROC (AUC=0,9999) e Distribuição de Pontuação Genuína/Impostora — Dois Picos Completamente Separados

IV. Dados de Treinamento: Não Apenas Grandes, Mas Diversos

Este estudo fundiu 8 conjuntos de dados públicos, incluindo os dois cenários mais desafiadores da indústria:

Dados de Gêmeos (CASIA-Iris-Twins)

      Dados de íris de 200 pares de gêmeos — mesmo com genes quase idênticos, as texturas da íris são completamente diferentes. Este é o "teste definitivo" para verificar o poder discriminatório do algoritmo.

Cenários Não Restritos de Luz Visível (UBIRIS.v2)

      518 identidades com mais de 11.000 imagens, capturadas sob iluminação natural com desfoque de movimento, distorção fora de foco e variações de iluminação — este é o conjunto de dados mais próximo dos cenários de implantação do mundo real.
      O treinamento foi concluído em um Apple Silicon M2 Ultra (Mac Studio) em aproximadamente 12,3 horas (90 épocas de treinamento), com uma latência de inferência de pico de apenas ~35ms (incluindo recorte de ROI e extração de características).

V. Comparação Horizontal com Trabalhos de Ponta da Indústria

Método Backbone Pré-processamento EER
Daugman IrisCode Gabor Borracha ~0,10% (Ambiente Controlado)
UniqueNet (2016) CNN Siamesa Borracha 0,18%
IrisFormer (2023) ViT-B/16 Borracha 0,22%
PolyIRIS (2021) CNN Multiescala Borracha (Conjunto de Dados Único)
Homsh ViT+ArcFace (Este Lançamento) ViT-S/16 Recorte de ROI 0,29% (8 Conjuntos de Dados)

últimas notícias da empresa sobre Avanço inovador da Homsh: ViT+ArcFace alcança 0,29% de EER no reconhecimento de íris  2
▲ De 4,65% para 0,29% EER: O Caminho de Evolução Tecnológica de Quatro Rodadas de Iteração

VI. Próximos Passos

1. Avaliação Independente Cross-Dataset
      Testes cegos no conjunto de dados IIT Delhi não envolvido no treinamento para verificar a capacidade de generalização do mundo real.
2. Integração de Detecção de Vivacidade
      Combinar resposta de flash multi-frame ou análise de textura para defender contra ataques de reprodução de fotos e construir um sistema anti-spoofing completo.
3. Reconhecimento de Íris de Médio e Longo Alcance
      Introduzir dados de médio alcance (3m) para estender a cenários com distâncias de captura maiores — o próximo oceano azul para implementação comercial.
4. Leveza e Implantação no Lado da Borda
      Destilar o modelo ViT-S/16 para <5M parâmetros para se adaptar a dispositivos de borda com recursos limitados (NPU/FPGA).

Conclusão: Uma Convenção de Trinta Anos Merece Reexame

      A Borracha de Daugman foi a solução ideal de sua época. Mas a essência da tecnologia é esta: quando ferramentas melhores surgem, o antigo paradigma deve dar lugar.
      O Vision Transformer mudou a lógica subjacente do reconhecimento de imagem. Através de quatro rodadas de experimentos e quatro meses de exploração, encontramos a maneira correta para o ViT realmente desbloquear seu potencial no reconhecimento de íris — não para fazer o ViT se adaptar ao antigo fluxo de trabalho, mas para projetar um novo paradigma de pré-processamento adaptado para o ViT.
      Um EER de 0,29% é apenas um número, mas também uma declaração:
      O reconhecimento de íris entrou na era do Transformer, e a Homsh está na linha de largada.

Sobre a Homsh

      WuHan Homsh Technology Co., Ltd. (HOMSH), fundada em 2011, é uma das poucas empresas de alta tecnologia no mundo que detém direitos de propriedade intelectual independentes para algoritmos e chips centrais de reconhecimento de íris. Seu algoritmo Phaselirs™ central e chips inteligentes Qianxin Series FPGA/ASIC para reconhecimento de íris têm sido amplamente utilizados em coleta financeira, desembaraço aduaneiro, emissão de certificados governamentais, segurança militar e outros campos.