UNIESP/AFARP – FACULDADE DE RIBEIRÃO PRETO

CURSO DE BACHARELADO EM SISTEMAS DE INFORMAÇÃO

 

 

A INTELIGÊNCIA ARTIFICIAL APLICADA A WEB INTELLIGENCE E PROPOSTA DE VIABILIDADE PARA DESENVOLVIMENTO DE UM SISTEMA ESPECIALISTA.

 

Lucas Augusto Coutinho

 

 

 

Orientador: Prof. Me. Daniel Rosa da Silveira

 

 

 

RESUMO 

 

Não existe uma única definição para Inteligência Artificial, mas várias. Basicamente, Inteligência Artificial é um campo da informática aplicada que busca fazer computadores pensarem como seres humanos ou que sejam tão inteligentes como tais.

Quando aliamos as métricas para análise de resultados dos objetivos de um projeto Web (Analytics Intelligence) às técnicas de Inteligência de mercado e negócios (Business Intelligence), temos o conceito de Web Intelligence.

Este trabalho traz conceitos de I.A – Inteligência Artificial e W.I – Web Intelligence através da análise bibliográfica e exemplos reais, apresentando a ideia de um mecanismo para otimizar o uso e oferecer suporte à navegação em negócios Web. 

Palavras-chave: inteligência artificial; web intelligence; interfaces inteligentes. 

 

ABSTRACT 

 

There is no single definition for Artificial Intelligence, but several. Basically, artificial intelligence is a field of applied computer science that aims to make computers think like humans or that are as intelligent as such.

When we combine the metrics for purposes of the results of analysis of a Web project (Analytics Intelligence) to market intelligence techniques and business (Business Intelligence), we have the concept of Web Intelligence.

This paper presents concepts of AI and Web Intelligence through literature and real examples analysis, presenting the idea of a mechanism to optimize the use and support the navigation in Web business.

Keywords: artificial intelligence; web intelligence; intelligent interfaces. 

 

1.        INTRODUÇÃO 

 

A internet que hoje faz parte da realidade da maioria das pessoas foi criada em 1994 com a implementação da World Wide Web (WWW) pelo inglês Tim Berners-Lee, pesquisador do Centro Europeu de Investigação Nuclear (CERN), em Genebra (CASTELLS, 2003).

Desde então, a tecnologia da internet se desenvolveu dentro de núcleos tecnológicos de universidades ao redor do mundo com a premissa de otimizar uma rede potencialmente global. Dentre estes núcleos, podemos destacar institutos localizados nos EUA, Grã-Bretanha, França e Inglaterra.

A Internet Society caracteriza que a internet é ao mesmo tempo uma rede mundial com capacidade de transmissão em larga escala, um mecanismo de disseminação da informação e um meio para colaboração e interação. Levando em consideração que a internet é uma forma de mídia digital capaz de oferecer informações, uma outra definição faz-se necessária, a de que “a internet é também um mecanismo de socialização, de integração social e de reprodução cultural” (ESTEVES, 2000, p. 26).

Por meio destas afirmações, podemos deduzir então que a internet como vemos hoje é um mecanismo eficiente na formação de opinião individual e que essa opinião pode ser interpretada também como um comportamento lógico e emocional dentro de um meio digital. Esse comportamento é caracterizado por preferências, formas de interpretação de símbolos e textos, métodos de interação com o meio digital e com outros indivíduos contidos neste meio, além da comunicação interface x usuário oferecida pelos sites atuais. Podemos então considerar coerente que: “A net tornou-se um meio polivalente, o condutor para a maior parte da informação que atravessa nossos olhos e ouvidos até a nossa mente” (LEVY, 1999, p.64).

Podemos ainda citar o papel das emoções na dependência tecnológica em meio digital, perspectiva que aborda a questão ilógica e psíquica que leva o indivíduo ao vício por meios de comunicação não convencionais e estuda comportamentos patológicos nesta relação.

Os dependentes em internet e redes sociais por exemplo, usam-na como ferramenta para possibilitar e facilitar a comunicação, gerando sentimento de prazer e satisfação, o que pode acarretar um “fator eliciador para a dependência” (AZEVEDO, NASCIMENTO e MEDEIROS, 2014).

Não podemos deixar de mencionar ainda a tecnologia por trás destes sites tão atrativos e interativos. Essa interatividade se deve em parte a um conjunto de técnicas de usabilidade

U.X – User Experience, aliadas a conceitos de inteligência artificial I.A com o intuito básico de entreter, reter e fidelizar o usuário. Com toda essa tecnologia voltada a atrair usuários, a internet toma proporções gigantescas e:

 “A medida em que a internet expande, essa infraestrutura atende às necessidades de comunicação, criando novas formas de colaboração, compartilhamento e interação” (SHEPHER, SALIÉS, 2013, p. 7).

O trecho menciona a junção e a correlação entre infraestrutura e interação. Neste contexto, podemos entender como infraestrutura não só o hardware envolvido em uma rede global, mas toda estrutura sistêmica capaz de compreender o comportamento do indivíduo e de reagir a este comportamento de forma natural valendo-se de interação através de mecanismos e elementos de U.X e I.A.

Neste panorama, podemos identificar a forma como os sistemas elaborados captam a atenção dos usuários e lhes oferecem cada vez mais possibilidades de interação, como compras, consulta a sistemas bancários, diversão digital, conteúdo informativo, conteúdo adulto entre outros. 

A medida que os usuários consomem internet, em qualquer segmento, eles geram uma concorrência de forma não intencional entre sistemas de mesmo segmento, tendo em vista que

“desassociar o consumo da prática cotidiana do ser humano é impossível” (ALMEIDA, 2010, p. 17).

Se um banco oferece um determinado serviço online ao usuário, obrigatoriamente, todos os demais bancos oferecerão o mesmo serviço, da mesma forma ou de modo diferente. O fato é que se um determinado banco tem, o outro também necessita ter.

Para tanta concorrência, seja em ambientes de compras ou sites que oferecem serviços, públicos ou não, era de se esperar que os resultados dessa concorrência pudessem ser parametrizados. E é exatamente neste ponto que observamos os métodos de W.B – Web Analytics e I.A em ação. 

Um analisa dados pessoais individuais ou coletivos, como comportamento, sexo, idade, regionalização, método de acesso, dispositivo de acesso, hora, tempo de navegação e a outra busca transformar a navegação em algo intuitivo e natural, facilitando a comunicação determinando sinais individuais para cada tipo de utilizador.

Com esta gama de informações e dados, podemos traçar estratégias de alcance, metas de comércio e gestão de projetos voltados ao resultado propriamente dito (B.I – Business Intelligence).

Essa junção de técnicas, métodos empíricos, algoritmos de parametrização complexos e gestão de projetos molda o que chamamos hoje de Web Intelligence.

O contexto de Web Intelligence, seus aspectos e melhores práticas é definido pela comunidade científica através do seguinte trecho: 

“Uma nova direção de investigação e desenvolvimento, que explora regras fundamentais e o impacto prático da inteligência artificial e das tecnologias de informação para a próxima geração de sistemas, serviços e ambientes baseados na web” (OLIVEIRA, J. M. G, 2004).

Atualmente, a web está repleta de sistemas integrados com tecnologias especializadas em analisar dados dos usuários e transforma-los em informação relevante. Essa relevância nas informações permite a gestão focada no resultado que é amplamente utilizado por portais e comércios eletrônicos em todo o mundo, facilitando a compreensão dos hábitos de consumo dos usuários na internet.

Utilizando essas informações, podemos observar que a escolha pela compra de um objeto, a leitura de uma matéria, a preferência por determinado site é ainda induzida pela mídia digital, custeada por portais para impelir ao clique (conversão). Neste contexto, podemos citar as grandes geradoras de conteúdo digital comercial pago, como Google (Adwords), Yahoo (Ads), Bing (Advertising), Facebook (Ads) e os expressivos portais nacionais como UOL, Terra e IG que distribuem conteúdos comerciais de alto padrão gráfico, utilizando Web Intelligence e técnicas específicas de I.A como Web Miner para seduzir o usuário ao clique efetivo.

O trabalho que se apresenta possui como objetivo a idealização de um Sistema Especialista que seja capaz de capturar dados de usuários a partir de seu comportamento no uso da internet e com isso com isso construir critério de navegação focada em conversão para os próximos acessos a sites do mesmo segmento ou que oferecerem o mesmo produto ou serviço.

De natureza exploratória, este artigo fez uso de pesquisa documental e analisou a ocorrência de técnicas de I.A, W.A e B.I nas organizações que estejam presentes exclusivamente no ambiente virtual e os recursos de seus sites para os usuários. O referencial teórico se concentra nos eixos temáticos da Inteligência Artificial integrada as métricas de Web

Analytics e aos contextos gerenciais da Web Intelligence, bem como conceitos de PMO e Gestão de Projetos.

Este artigo apresenta como a internet comercial utiliza-se da I.A para atingir seus objetivos de conversão. O uso de sistemas especialistas focados em induzir a conversão é amplamente utilizado nos dias atuais (inferência). 

O artigo faz um estudo acerca do comportamento do usuário em meio digital para posteriormente desenvolver um método capaz de diminuir o impacto da inferência da mídia nas decisões dos usuários consumidores.

 

2.      MARKETING DIGITAL E INFERÊNCIA DE RESULTADOS

Quando citamos a importância da interação usuário x internet, não podemos esquecer que a I.A se faz presente, porém ainda de forma muito simbólica. O domínio técnico ainda é da W.I, visando a conversão como prova de resultado.

A medida em que a I.A avança, novas possibilidades de interação natural com o usuário vão surgindo, garantindo assim que usuários sejam fidelizados com mais facilidade.

O que vemos hoje é uma massa de portais utilizando as mesmas técnicas para agrupar usuários e fidelizar, porém, sem nenhum diferencial tecnológico recente.

Podemos afirmar que parte das conversões (vendas) inicialmente originadas na internet são oriundas de pesquisas de usuários por determinado produto ou serviço em sites comparadores de preços ou em buscas orgânicas e patrocinadas em portais especialistas em Searching.

Desta forma, empresas que custeiam links patrocinados inferem resultados nas buscas mesmo que de forma irrelevante. Esta prática ainda é utilizada e conta com o consumismo global para induzir a compra de itens que nada condizem com a busca inicial efetuada pelos usuários.

O foco é que no futuro, todo site que deseja competitividade real utilize o SE – Sistema Especialista, implementado diretamente em seu Back-End, como um script necessário para a conversão, uma vez que este S.E será capaz de ofertar dentro de um portal, o mesmo conteúdo visitado em outro portal desde que sejam respeitados os critérios analíticos e preferenciais dos usuários.

 

3.      UM SISTEMA ESPECIALISTA COMO AGENTE CUSTOMIZADOR

Um sistema especialista é um conjunto de algoritmos que trabalham de forma unificada para a obtenção de um propósito comum. É baseado no conhecimento especialmente projetado para emular a especialização humana de algum ou vários domínios específicos (FLORES,2003).

Em termos técnicos, o S.E é um agente que compreende as competências de um profissional humano, realizando tarefas voltadas para a solução de problemas específicos, que exigem conhecimentos próprios para tal solução.

Um SE é desenvolvido para executar uma tarefa dedicada, não sendo possível orientálo para tarefas que não são reconhecidas dentro de sua área e suas competências.

A ideia de um Script Especialista, neste trabalho, aplica-se ao uso direto por consumidores da internet e aos portais que desejam inferir resultados reais aos seus clientes.

Além da inferência dos resultados de forma objetiva, o S.E pode ser considerado um agente facilitador de conversão, tendo como parâmetro principal, o fato de que o usuário não necessitará mais efetuar buscas complexas em portais de mesmo conteúdo, devido a especificidade do S.E em indicar no início da navegação o produto buscado previamente em outros sites de mesmo conteúdo.

De caráter “Open Source – Código aberto”, a proposta de desenvolvimento desta metodologia visa dedicar maior poder ao usuário, ou seja, o cliente interagindo sem a intervenção da mídia digital como formadora de opinião. Em termos menos técnicos, podemos dizer que com este método o cliente escolhe onde, como, quando comprar e quanto pagar por determinado produto ou serviço de acordo com as sugestões do SE em sites afiliados ao método.

 

3.1.     Fluxo de dados convencional

No fluxo convencional de dados, os acessos, parâmetros e as métricas são analisadas individualmente. Desta forma, dependendo do resultado obtido em cada portal, a ação para o alcance da meta é individual. Logo, cada portal determina as técnicas de B.I/I.A/W.I a serem aplicadas para alcançar o resultado almejado.

Essas ações individuais são aplicadas de acordo com a experiência de cada organização, o que torna as tarefas de B.I onerosas e mal interpretadas. A seguir um esquema convencional:

 

Figura 1 - Esquema do fluxo de dados convencional.

 

Note que os dois portais executam as mesmas tarefas para alcançar os resultados obtidos.

 

3.2.     Fluxo de dados otimizado – Sistema especialista

No fluxo otimizado, os dados dos portais são captados e interpretados pelo S.E, que tem a função de armazena-los. Todo processo de navegação do usuário é acompanhado pelo SE e armazenado, com a finalidade de retornar resultados de suas pesquisas anteriores em portais semelhantes. Posteriormente, o S.E executa a função de comparar os dados dos portais para retornar ao usuário, a informação ou a opção mais apropriada de acordo com os dados já armazenados (cookies). Utilizando técnicas de W.A e B.I, o S.E analisa as informações e retorna ao usuário somente dados relevantes e de forma gratuita, garantindo que o portal, a princípio, lucre com a conversão real sem custo com mídia digital. 

Abaixo o esquema de fluxo otimizado:

Figura 2 - Esquema de fluxo de dados otimizado por um SE.

 

 

Utilizado o fluxo otimizado, todas os parâmetros e métricas são analisados pelo S.E, que determina qual resultado inferir ao usuário que efetuou a busca inicialmente.

 

4.      REVISÃO TEÓRICA  

  Apesar do eixo temático ser voltado para a inteligência artificial, os métodos abordados são diferentes. Por isso, neste tópico serão apresentados, os conceitos básicos de cada uma destas técnicas.  

  

4.1.   Web Analytics

É por meio das ferramentas e técnicas de Web Analytics que podemos identificar oportunidades de negócio e descobrir o que deve ser corrigido, o que deve ser descartado e o que deve otimizado em projetos de estratégia digital.

Coletar dados, medir, analisar, propor alterações nem sempre convencionais, fazem parte do cotidiano de quem lida com métricas na internet.

Neste artigo, nos preocupamos mais observando o Behavior Target (comportamento do usuário durante a navegação), com a finalidade de traçar o perfil para posterior sugestão de oportunidades pautadas em navegações anteriores.

 

4.2.   Business Intelligence

Os negócios online estão em alta. E não necessariamente estão na internet por estar, mas sim pela característica da internet em potencializar negócios, transformar algo que era regional em global.

Essa possibilidade desperta o interesse de lojistas e empresas de grande porte em todo o mundo, e não é para menos, pois segundo a E-commerce News

(http://ecommercenews.com.br/), a projeção de venda para 2016 é de US$ 2,3 trilhões.

Mas para fazer parte de um ambiente tão competitivo, faz-se necessário coletar, organizar e analisar as informações obtidas para não cometer erros que comprometam a efetividade do negócio.

 

4.3.   Web Intelligence 

É preciso inteligência para identificar falhas e apontar pontos positivos no planejamento em negócios Web. Atingir esses objetivos depende exclusivamente de como os usuários se comportam dentro de seu portal.

W.I é a junção de todos os processos de captura de dados, analise de métricas e organização de informações para posteriormente traçar objetivos específicos com a finalidade de atingir metas mais agressivas.

É preciso acima de tudo, analisar o todo sob um aspecto analítico, inclusive se o aspecto for comportamento do usuário durante a navegação.

 

5.      METODOLOGIA DE PESQUISA

A metodologia deste trabalho foi dividida em fases: a primeira fase refere-se à coleta dos artigos. A segunda fase corresponde a análise trabalhos e parametrização dos dados obtidos.

Por último, são apresentadas as limitações do trabalho. 

  

5.1.   Coleta dos artigos 

Como o objetivo específico deste artigo foi localizar trabalhos com maior índice de relevância para negócios online, a busca foi efetuada em duas bases disponíveis no Brasil.

Na Scielo, foi feita uma busca avançada no título, no abstract e nas palavras-chave, limitando aos assuntos: web marketing, business intelligence, web analytics, google analytics, user experience, business intelligence e data miner. 

Na Capes, foi feita uma busca pelos mesmos termos citados acima, com resultados amplos e sem segmentação para o tema proposto neste artigo.

 

5.2.   Análise e classificação dos resultados

Após a busca e coleta dos artigos, procedeu-se à leitura do abstract, observando se o artigo utilizava quaisquer das técnicas em estudo mencionadas nesse trabalho e se a aplicação proposta estava correlacionada às áreas de I.A abrangidas neste documento.

Uma vez satisfeitas as condições concluímos a classificação dos artigos encontrados.

A classificação primária foi feita de acordo com o tema do artigo e sua relevância dentro do contexto da internet.

Finalizada a categorização inicial, foi feita a filtragem por abrangência do tema de cada artigo sobre o assunto proposto neste trabalho.

Por fim, foi feita a análise quantitativa dos artigos com relação às técnicas utilizadas isoladamente ou em grupos de técnicas aplicadas sequencialmente.

  

6.      RESULTADOS ESPERADOS E CONSIDERAÇÕES FINAIS

O presente estudo visa propor melhorias na forma como os sites atuais interagem com seus usuários utilizando um sistema especialista. Essas melhorias tem o propósito de facilitar a forma como os dados são compreendidos pelo sistema e como ele poderá reagir de forma mais natural, proporcionando ao usuário maior confiabilidade em suas negociações online.

Ainda neste contexto, este estudo forneceu informações para futuros desenvolvedores de sistemas, analistas de interfaces, web designers e especialistas em U.X, I.A, engenheiros de software e demais profissionais voltados para a Web Intelligence.

Este estudo possibilita também uma nova metodologia para navegação baseado em dados reais de comportamento de usuários consumidores de produtos e conteúdo na internet.

Entretanto, modelar um novo paradigma de navegação comercial com a finalidade de devolver ao usuário pleno poder de escolha não influenciado pela mídia digital paga por grandes portais pode ser uma empreitada inovadora e ao mesmo tempo promissora.

 

7.      CONCLUSÃO

O objetivo geral deste artigo é propor a ideia de um S.E para futuramente ser desenvolvido um modelo que modifique a interação comercial entre portais e usuários.

O aspecto mais evidente deste trabalho e a proposição de um mecanismo que ofereça ao usuário maior poder de decisão, pautado em resultados reais não custeados pela mídia patrocinada.

Este aspecto está longe de oferecer riscos aos mecanismos de sugestão comercial patrocinados atualmente utilizados na internet de forma eficiente, ao contrário, este aspecto visa oferecer aos usuários e portais uma relação mais clara no tocante às relações de consumo.

Como o S.E a princípio “open source”, o método será colaborativo, podendo haver participação de usuários, lojistas e profissionais de T.I – Tecnologia da Informação, Marketing, SEO – Search Engine Optmization (Otimização para mecanismos de busca) e demais profissionais envolvidos em desenvolvimento de projetos bem como profissionais de outras áreas interessados nas relações comerciais pela internet.

 

8.      REFERÊNCIAS BIBLIOGRÁFICAS

ALBERTIN, Luiz A.,  MOURA, Rosa M. (2002). Comércio eletrônico: mais evolução, menos revolução. Rev. adm. Empresas, vol.42, n.3, pp. 1-4.

COBB, C. J. e HOYER, W. D. (1986). Planned versus impulse purchase behavior. Journal of Retailing, v. 62, n. 4.

COZER, T. Mateus, (2007). Interação com clientes na economia digital: Um estudo de caso múltiplo. Journal of Information Systems and Technology Management, Bussum, 4 (2): 218233. 

FLORES, C. D. (2003). Fundamentos dos Sistemas Especialistas. In: BARONE, D. A. C. (Ed.). Sociedades Artificiais: a nova fronteira da inteligência nas máquinas. Porto Alegre: Bookman, p.332.

QUILICI-GONZALEZ, J. A., ZAMPIROLLI, F. A. (2014). Sistemas inteligentes e mineração de dados. Universidade Federal do ABC. São Paulo, pg. 20 – 65.

OLIVEIRA, L. C. Claudio, (2013). Criação de valor estratégico a partir de digital analytics. Escola politécnica da Universidade de São Paulo. São Paulo, 1(1):19-176. 

RUSSEL, S. NORVIG, P.  (1995). Artificial Intelligence: A Modern Approach. Prentice Hall, pg. 31 – 39.

SILVA, Marcel F.  (2007). Estudo comparativo entre interfaces hipertextuais de softwares para a representação do conhecimento. Universidade Federal de Minas Gerais. Belo Horizonte, pg. 101 – 112.

WUERGES, F., ARTUR & BORBA, Alonso. (2010). Redes neurais, lógica nebulosa e algoritmos genéticos: Aplicações e possibilidades em finanças e contabilidade. Revista de Gestão da Tecnologia e Sistemas de Informação, 7 (1): 164-180.