Nesse ano, o IEEE World Congress on Computational Intelligence (WCCI) ocorreu na Barra da Tijuca, no Rio de Janeiro. Esse é o maior evento global focado em inteligência computacional e congrega três grandes conferências a cada dois anos: International Joint Conference on Neural Networks (IJCNN), IEEE Congress on Evolutionary Computation (CEC) e IEEE International Conference on Fuzzy Systems (FUZZ-IEEE). Vale destacar que essa foi a primeira vez que essas conferências ocorreram na América do Sul.
O WCCI é um evento longo que dura seis dias, de domingo à sexta-feita, com mais de dez sessões em paralelo. Na manhã do domingo, apresentamos um tutorial sobre seleção dinâmica de classificadores: Dynamic classifier selection: recent advances and perspectives. Nesse tutorial, foram apresentados os principais conceitos da área de pesquisa relacionada à combinação de classificadores, bem como, foi debatido o futuro da área. A foto a seguir registra o final do tutorial após mais de quatro horas de apresentação/discussão; da esquerda para a direita: eu, Rafael Cruz (apresentador) e Robert Sabourin.

Além do tutorial, fui co-autor de quatro artigos apresentados no IJCNN. Rafael apresentou o artigo “K-Nearest Oracles Borderline Dynamic Classifier Ensemble Selection” que propõe dois métodos para seleção dinâmica de classificadores: K-Nearest Oracles Borderline (KNORA-B) e K-Nearest Oracles Borderline Imbalanced (KNORA-BI). Essas propostas estendem o método K-Nearest Oracles Eliminate (KNORA-E), em especial, para lidar com dados cujas classes estejam desbalanceadas. Esse problema de desbalanceamento ocorre quando o número de instâncias em uma das classes é bem menor do que o número de instâncias em uma outra classe do mesmo problema.
Felipe (foto a seguir) apresentou o artigo “An Ensemble Generation Method Based on Instance Hardness“. Nesse artigo, propomos um método de geração de pools de classificadores baseado no Bagging. Nessa proposta, a probabilidade de selecionar uma instância durante o processo de remostrarem é inversamente proporcional à sua instance hardness (medida usada para aferir a probabilidade de uma instância ser incorretamente classificada independente do classificador). Os experimentos mostraram que o método proposto é significativamente melhor do que Bagging em cenários nos quais os dados contêm ruído.

O artigo “Improving the accuracy of intelligent forecasting models using the perturbation theory” foi apresentado em formato pôster. Na foto a seguir, da esquerda para a direita: Eraylson, eu, Paulo Salgado e Domingos. Nesse artigo, a teoria da perturbação é aplicada na previsão de séries temporais.

Apresentei o artigo “An empirical analysis of Combined Dissimilarity Spaces“, fruto do trabalho de graduação de Leticia. O trabalho apresenta o método Combined Dissimilarity Spaces (CoDiS) e alguns de seus parâmetros são avaliados objetivando a tarefa de categorizar texto. CoDiS é um sistema de múltiplos classificadores (SMC) no qual cada classificador é treinado com dados de um espaço de dissimilaridade diferente. Esse tipo de abordagem apresenta uma vantagem que emerge da diversidade gerada pelo uso de vários espaços diferentes ao invés de apenas um espaço. Assim, cada classificar do SMC “enxerga” a tarefa de categorizar o documento de um ângulo diferente e, possivelmente, complementar.
Os artigos submetidos ao congresso são avaliados por revisores que são pesquisadores experientes no assunto do artigo. Tanto a indicação dos revisores como a seleção dos artigos que serão apresentados num evento são tarefas de um comitê. Nesse ano, fui um dos cinco que formaram esse comitê (technical chair) do International Joint Conference on Neural Networks. Experiência interessante e árdua. Também tive o prazer de fazer parte do comitê que avaliou o melhor artigo de estudante do evento (best student paper award). Atuei como section chair em duas sessões e, também, tive o prazer de introduzir o Plenary Talk do cientista Paul Werbos intitulada “Consciousness from AI to IOT and Noosphere“. Werbos foi o primeiro pesquisador a descrever o processo de treinamento de uma rede neural artificial pela retro-propagação do erro, em 1974. Importante lembrar que nessa época, a área de redes neurais artificiais estava desacreditada; período conhecido como o inverno da Inteligência Artificial (AI Winter). Grande parte desse descrédito deveu-se ao livro publicado por Minsky e Papert (“Perceptrons: An Introduction to Computational Geometry”) no qual eles mostram que um Perceptron não pode resolver o problema do Ou-Exclusivo (XOR). Muitas mudanças ocorreram logo depois com a publicação do artigo “Learning representations by back-propagating errors“. Mudanças que deram origem à família de métodos de aprendizagem de máquina conhecida como Deep Learning e que impactam bastante nossas vidas atualmente.