Detecção de anomalias: diferenças entre revisões

Fonte: aprendis
Saltar para a navegaçãoSaltar para a pesquisa
mSem resumo de edição
Linha 11: Linha 11:
A definição exata de uma anomalia depende geralmente de pressupostos inerentes à estrutura de dados e ao método aplicado para sua detecção:
A definição exata de uma anomalia depende geralmente de pressupostos inerentes à estrutura de dados e ao método aplicado para sua detecção:


* Hawkins (1980)<ref name="Hawkins">Hawkins D., Identification of Outliers, Chapman and Hall, 1980.</ref> “Uma observação que se desvia demasiadamente das outras observações ao ponto de levantar suspeitas de ter sido gerada por um mecanismo diferentes.”
* Hawkins (1980)<ref name="Hawkins">Hawkins D, Identification of Outliers, Chapman and Hall, 1980.</ref> “Uma observação que se desvia demasiadamente das outras observações ao ponto de levantar suspeitas de ter sido gerada por um mecanismo diferentes.”
* Johnson (1992)<ref name="Johnson ">Johnson R., Applied Multivariate Statistical Analysis. Prentice Hall, 1992.</ref> “Uma observação em uma série de dados em aparenta ser inconsistente com o restante daquela série de dados.”
* Johnson (1992)<ref name="Johnson ">Johnson R, Applied Multivariate Statistical Analysis. Prentice Hall, 1992.</ref> “Uma observação em uma série de dados em aparenta ser inconsistente com o restante daquela série de dados.”
* Barnett (1994)<ref name="Lewis ">Barnett V., Lewis T., Outliers in Statistical Data. JohnWiley, 1994.</ref> “A observação anómala, ou anomalia, é aquela que aparenta desviar-se marcadamente dos outros membros da amostra em que ela ocorre.”
* Barnett (1994)<ref name="Lewis ">Barnett V, Lewis T, Outliers in Statistical Data. JohnWiley, 1994.</ref> “A observação anómala, ou anomalia, é aquela que aparenta desviar-se marcadamente dos outros membros da amostra em que ela ocorre.”


Os métodos de detecção de anomalias tem sido utilizados em diversas aplicações, como detecção de fraude em cartões de crédito, irregularidade em eleições, limpeza de dados, invasão de redes, previsão de tempestades, detecção de anomalias em registos e análises médicas, detecção de tumores em imagens, e outras tarefas.
Os métodos de detecção de anomalias tem sido utilizados em diversas aplicações, como detecção de fraude em cartões de crédito, irregularidade em eleições, limpeza de dados, invasão de redes, previsão de tempestades, detecção de anomalias em registos e análises médicas, detecção de tumores em imagens, e outras tarefas.
Linha 33: Linha 33:
=== Métodos baseados na distância ===
=== Métodos baseados na distância ===


Inicialmente proposto por Knorr & Ng (1997)<ref name="Knorr97">Knorr E., Ng R., ”A unified approach for mining outliers,” In Proceedings Knowledge Discovery KDD, 219-222, 1997.</ref>, tem como pressupostos que os dados normais tem uma vizinhança densa, e que as anomalias estão afastados dos seus vizinhos.
Inicialmente proposto por Knorr & Ng (1997)<ref name="Knorr97">Knorr E, Ng R, ”A unified approach for mining outliers,” In Proceedings Knowledge Discovery KDD, 219-222, 1997.</ref>, tem como pressupostos que os dados normais tem uma vizinhança densa, e que as anomalias estão afastados dos seus vizinhos.


O modelo básico de Knorr & Ng considera que a observação é definida como uma anomalia (baseada em distância) se ao menos uma fração ''β'' das observações da série de dados está afastada para além de ''r''. Tal definição está baseada em um único critério global, determinado pelos parâmetros ''r'' e ''β''. Esta definição levanta algumas dificuldades como a determinação do valor de ''r'' e a falta de um ranking para as anomalias. Sua complexidade computacional é de ''<big>O(pn<sup>2</sup>)</big>'', onde ''p'' é o número de atributos e ''n'' o tamanho da amostra, sendo portanto inadequado para grandes séries de dados.
O modelo básico de Knorr & Ng considera que a observação é definida como uma anomalia (baseada em distância) se ao menos uma fração ''β'' das observações da série de dados está afastada para além de ''r''. Tal definição está baseada em um único critério global, determinado pelos parâmetros ''r'' e ''β''. Esta definição levanta algumas dificuldades como a determinação do valor de ''r'' e a falta de um ranking para as anomalias. Sua complexidade computacional é de ''<big>O(pn<sup>2</sup>)</big>'', onde ''p'' é o número de atributos e ''n'' o tamanho da amostra, sendo portanto inadequado para grandes séries de dados.
Linha 39: Linha 39:
==== k-Vizinho mais Próximo (''k-Nearest Neighbor'': k-NN) ====
==== k-Vizinho mais Próximo (''k-Nearest Neighbor'': k-NN) ====


Proposta por Ramaswamy (2000)<ref name="Ramaswamy"/>, considera que as anomalias são as ''n'' observações que possuem as maiores distâncias ao seu ''k''-ésimo vizinho mais próximo. Uma deficiência deste método é que ele só considera a distância do ''k''-ésimo vizinho e ignora a informação das observações mais próximas. Uma alternativa também utilizada é obter a distância média dos ''k'' vizinhos mais próximos, com a desvantagem de levar mais tempo para ser calculado.
Proposta por Ramaswamy (2000)<ref name="Ramaswamy"/>, considera que as anomalias são as ''n'' observações que possuem as maiores distâncias ao seu ''k''-ésimo vizinho mais próximo. Uma deficiência deste método é que ele só considera a distância do ''k''-ésimo vizinho e ignora a informação das observações mais próximas. Uma alternativa também utilizada é obter a distância média dos ''k'' vizinhos mais próximos, com a desvantagem de levar mais tempo para ser calculado. Possui uma complexidade computacional variável dependendo do algoritmo de procura do vizinho mais próximo<ref name="Weber">Weber R, Schek HJ, Blott S: A Quantitative Analysis and Performance Study for Similarity-Search Methods in High-Dimensional Spaces. Proc 24th VLDB Conf 1998, New York C:194–205.</ref>


==== Fator de Anomalia Local (''Local Outlier Factor'': LOF )====
==== Fator de Anomalia Local (''Local Outlier Factor'': LOF )====

Revisão das 18h19min de 23 de fevereiro de 2016

Detecção de anomalias
Sigla DA
Aplicações Processamento de dados, Análise de Dados
Conceitos relacionados Dados, Anomalias, Mineração de Dados


Introdução

Embora as anomalias costumam ser consideradas erros ou ruídos, elas podem conter informação importante[1][2], sendo assim, de forma a se obter uma análise coerente de uma observação, é crucial identificá-las antes da modelação de um algoritmo e da análise dos resultados.[3][4].

A definição exata de uma anomalia depende geralmente de pressupostos inerentes à estrutura de dados e ao método aplicado para sua detecção:

  • Hawkins (1980)[5] “Uma observação que se desvia demasiadamente das outras observações ao ponto de levantar suspeitas de ter sido gerada por um mecanismo diferentes.”
  • Johnson (1992)[6] “Uma observação em uma série de dados em aparenta ser inconsistente com o restante daquela série de dados.”
  • Barnett (1994)[7] “A observação anómala, ou anomalia, é aquela que aparenta desviar-se marcadamente dos outros membros da amostra em que ela ocorre.”

Os métodos de detecção de anomalias tem sido utilizados em diversas aplicações, como detecção de fraude em cartões de crédito, irregularidade em eleições, limpeza de dados, invasão de redes, previsão de tempestades, detecção de anomalias em registos e análises médicas, detecção de tumores em imagens, e outras tarefas.

Taxonomia dos métodos de detecção de anomalias

Os métodos de detecção de anomalias foram inicialmente divididos em métodos univariados e multivariados, sendo atualmente divididos em métodos paramétricos (estatísticos) e não-paramétricos (model-free).

Os métodos paramétricos ou assumem que existe alguma distribuição conhecida dos dados[5][7][8], ou tem como fundamentação a estimativa estatística de uma distribuição desconhecida[9]. Tais métodos são na maioria das vezes impróprios para uma série de dados de grandes dimensões ou para série de dados sem qualquer conhecimento prévio de sua distribuição[10].

Nos métodos não-paramétricos podemos evidenciar os métodos de data-mining, também chamados de métodos baseado em distância. Estes métodos geralmente baseiam-se em medidas de distâncias locais e são capazes de processar base de dados de grande volume[11]. Outro método de detecção de anomalias está fundamentado nas técnicas de agrupamento (clustering) onde grupos de pequenas dimensões podem ser considerados como anomalias.[12][13].

Métodos paramétricos

Métodos estatísticos

Métodos não-paramétricos

Métodos baseados na distância

Inicialmente proposto por Knorr & Ng (1997)[14], tem como pressupostos que os dados normais tem uma vizinhança densa, e que as anomalias estão afastados dos seus vizinhos.

O modelo básico de Knorr & Ng considera que a observação é definida como uma anomalia (baseada em distância) se ao menos uma fração β das observações da série de dados está afastada para além de r. Tal definição está baseada em um único critério global, determinado pelos parâmetros r e β. Esta definição levanta algumas dificuldades como a determinação do valor de r e a falta de um ranking para as anomalias. Sua complexidade computacional é de O(pn2), onde p é o número de atributos e n o tamanho da amostra, sendo portanto inadequado para grandes séries de dados.

k-Vizinho mais Próximo (k-Nearest Neighbor: k-NN)

Proposta por Ramaswamy (2000)[12], considera que as anomalias são as n observações que possuem as maiores distâncias ao seu k-ésimo vizinho mais próximo. Uma deficiência deste método é que ele só considera a distância do k-ésimo vizinho e ignora a informação das observações mais próximas. Uma alternativa também utilizada é obter a distância média dos k vizinhos mais próximos, com a desvantagem de levar mais tempo para ser calculado. Possui uma complexidade computacional variável dependendo do algoritmo de procura do vizinho mais próximo[15]

Fator de Anomalia Local (Local Outlier Factor: LOF )

Métodos baseados em densidade

Fator de Anomalia Local Baseado em Aglomerados (Cluster-Based Local Outlier Factor: CBLOF)

Densidade Local do Fator de Anomalia Baseado em Aglomerados (Local Density Cluster-Based Outlier Factor: LDCOF)

Referências

  1. Pang-Ning T, Steinbach M, Kumar V: Introduction to Data Mining. 2006.
  2. Maletic JI, Marcus A: Data Mining and Knowledge Discovery Handbook. 2nd edition. Boston, MA: Springer US; 2010.
  3. Liu H, Shah S, Jiang W: On-line outlier detection and data cleaning. Comput Chem Eng 2004, 28:1635–1647.
  4. Williams G, Baxter R, Hawkins S: A comparative study of RNN for outlier detection in data mining. In 2002 IEEE International Conference on Data Mining, 2002. Proceedings.; 2002:709–712.
  5. 5,0 5,1 Hawkins D, Identification of Outliers, Chapman and Hall, 1980.
  6. Johnson R, Applied Multivariate Statistical Analysis. Prentice Hall, 1992.
  7. 7,0 7,1 Barnett V, Lewis T, Outliers in Statistical Data. JohnWiley, 1994.
  8. Rousseeuw PJ, Leroy AM: Robust Regression and Outlier Detection. Time 1987, 3:329.
  9. Hadi AS: Identifying Multiple Outliers in Multivariate Data. Journal of the Royal Statistical Society. Series B (Methodological) 1992:761–771.
  10. Papadimitriou S, Kitagawa H, Gibbons PB, Faloutsos C: LOCI: Fast outlier detection using the local correlation integral. In Proceedings - International Conference on Data Engineering; 2003:315–326.
  11. Knorr E, Ng R, Tucakov V: Distance-based outliers: algorithms and applications. VLDB J Int J Very Large Data Bases 2000, 8:237–253.
  12. 12,0 12,1 Ramaswamy S, Rastogi R, Shim K: Efficient algorithms for mining outliers from large data sets. ACM SIGMOD Rec 2000, 29:427–438.
  13. Kaufman L, Kaufman L, Rousseeuw PJ, Rousseeuw PJ: Finding Groups in Data: An Introduction to Cluster Analysis (Wiley Series in Probability and Statistics). 2005.
  14. Knorr E, Ng R, ”A unified approach for mining outliers,” In Proceedings Knowledge Discovery KDD, 219-222, 1997.
  15. Weber R, Schek HJ, Blott S: A Quantitative Analysis and Performance Study for Similarity-Search Methods in High-Dimensional Spaces. Proc 24th VLDB Conf 1998, New York C:194–205.