Utilizador:MiguelDuarte: diferenças entre revisões
Fonte: aprendis
Saltar para a navegaçãoSaltar para a pesquisa
Sem resumo de edição |
|||
(Há 6 revisões intermédias de 2 utilizadores que não estão a ser apresentadas) | |||
Linha 6: | Linha 6: | ||
}} | }} | ||
== About me == | |||
[[Ficheiro:Foto.jpg |miniatura]] | [[Ficheiro:Foto.jpg |miniatura]] | ||
Licenciado em Engenharia de Informática pelo ISEP. | Licenciado em Engenharia de Informática pelo ISEP. | ||
Linha 21: | Linha 21: | ||
[[Utilizador:MiguelDuarte|MiguelDuarte]] ([[Utilizador Discussão:MiguelDuarte|discussão]]) 01h30min de 4 de fevereiro de 2016 (CET) | [[Utilizador:MiguelDuarte|MiguelDuarte]] ([[Utilizador Discussão:MiguelDuarte|discussão]]) 01h30min de 4 de fevereiro de 2016 (CET) | ||
<!-- | |||
=Extração de Conhecimento de Dados= | =Extração de Conhecimento de Dados= | ||
“We study the past to understand the present; we understand the present to guide the future.” - William Lund | “We study the past to understand the present; we understand the present to guide the future.” - William Lund | ||
Linha 677: | Linha 677: | ||
O problema de Inferência e o Teorema de Bayes: a sua aplicabilidade é reduzida devido ao grande número de exemplos necessários para calcular, de forma viável. | O problema de Inferência e o Teorema de Bayes: a sua aplicabilidade é reduzida devido ao grande número de exemplos necessários para calcular, de forma viável. | ||
== O classificador | == O classificador Naïve Bayes == | ||
Um dos classificadores Bayesianos mais populares; | Um dos classificadores Bayesianos mais populares; | ||
Linha 700: | Linha 700: | ||
== Análise do algoritmo == | == Análise do algoritmo == | ||
# Superfície de decisão linear ( | # Superfície de decisão linear (Naïve Bayes num problema de duas classes definidos por atributos booleanos é um hiperplano); | ||
# As probabilidades exigidas pela equação que determina a probabilidade de um exemplo pertencer à classe em questão podem ser calculadas a partir do conjunto de treino numa única passagem; | # As probabilidades exigidas pela equação que determina a probabilidade de um exemplo pertencer à classe em questão podem ser calculadas a partir do conjunto de treino numa única passagem; | ||
# Processo de construção do modelo bastante eficiente; | # Processo de construção do modelo bastante eficiente; | ||
Linha 710: | Linha 710: | ||
# Problema da frequência = 0. Se uma das frequências for igual a zero devemos adicionar 1 a todos os valores da tabela;<ref name="citação5"/> | # Problema da frequência = 0. Se uma das frequências for igual a zero devemos adicionar 1 a todos os valores da tabela;<ref name="citação5"/> | ||
== Desenvolvimentos (técnicas para melhorar o desempenho do classificador | == Desenvolvimentos (técnicas para melhorar o desempenho do classificador Naïve Bayes) == | ||
# [http://www.springer.com/us/book/9783540566021 Langley (1993)] = recursivamente constrói uma hierarquia das descrições dos conceitos probabilísticos; | # [http://www.springer.com/us/book/9783540566021 Langley (1993)] = recursivamente constrói uma hierarquia das descrições dos conceitos probabilísticos; | ||
# [http://www.aaai.org/Library/KDD/kdd96contents.php Kohavi (1996)] = árvore de | # [http://www.aaai.org/Library/KDD/kdd96contents.php Kohavi (1996)] = árvore de Naïve Bayes (algoritmo híbrido que gera uma árvore de decisão univariada regular cujas folhas contêm um classificador Naïve Bayes; | ||
# [http://www.springer.com/cn/book/9783540538165 Kononenko (1991)] = classificador semi- | # [http://www.springer.com/cn/book/9783540538165 Kononenko (1991)] = classificador semi-Naïve Bayes (combina pares de atributos, fazendo um atributo produto-cruzado); | ||
# [http://www.worldscientific.com/worldscibooks/10.1142/3251 Pazzani (1996)] = classificador construtivo, encontrar os melhores atributos do produto cartesiano a partir de atributos nominais existentes; | # [http://www.worldscientific.com/worldscibooks/10.1142/3251 Pazzani (1996)] = classificador construtivo, encontrar os melhores atributos do produto cartesiano a partir de atributos nominais existentes; | ||
# [http://machine-learning.martinsewell.com/feature-selection/JohnKohaviPfleger1994.pdf John (1994)] = Bayes flexível para atributos contínuos; | # [http://machine-learning.martinsewell.com/feature-selection/JohnKohaviPfleger1994.pdf John (1994)] = Bayes flexível para atributos contínuos; | ||
Linha 816: | Linha 816: | ||
Ficheiro:Image21.png|Processo de Cross-Validation | Ficheiro:Image21.png|Processo de Cross-Validation | ||
Ficheiro:Image22.png|Resultado de performance de uma árvore de decisão | Ficheiro:Image22.png|Resultado de performance de uma árvore de decisão | ||
Ficheiro:Image23.png|Exemplo com todos os métods abordados | |||
</gallery> | </gallery> | ||
Linha 823: | Linha 824: | ||
=Referências= | =Referências= | ||
<references/> | <references/> | ||
Miguel Duarte, João Sabino, Mário Leal e Ricardo Lourenço 05h19min de 22 de fevereiro de 2016 (CET) | |||
--> |
Edição atual desde as 21h30min de 21 de abril de 2016
MiguelDuarte | |
---|---|
Área(s) de Atuação | Informática Médica |
Entidade(s) Criadora(s) | Mestrado em Informática Médica |
Entidade(s) Gestora(s) | Faculdade de Medicina da Universidade do Porto |
Data de Lançamento | 2016 |
About me
Licenciado em Engenharia de Informática pelo ISEP.
A frequentar Mestrado em Informática Médica na FMUP e FCUP.
Developer no Centro Hospitalar São João, co-responsável pelo desenvolvimento de várias aplicações, móveis e desktop, para uso dos vários grupos profissionais.
Formador de iOS no ISEP com formações desde o iOS 4 até ao iOS 9.
Freelancer como Developer de iOS e Windows Phone.
Amador entusiasta no desenvolvimento de aplicações para domótica e iOT
MiguelDuarte (discussão) 01h30min de 4 de fevereiro de 2016 (CET)