Processo de análise preditiva em análise de negócios com R



O blog dá uma breve ideia sobre o processo de Predictive Analytics em Business Analytics com R

Processo de Modelagem Típico:

Em um processo de modelagem típico, é importante começar a desenhar uma hipótese. Uma RFP (solicitação de proposta) é recebida e, em seguida, uma hipótese é desenhada.





o que é chef e fantoche
  1. Determine a fonte de dados certa - Aqui, o cliente pode fornecer a fonte de dados, caso contrário, temos que procurar uma fonte de dados. Diante de um cenário em que tentamos avaliar quem venceria a eleição, é feita uma análise pública dos dados com fontes que incluem mídias sociais, canais de notícias ou opinião pública. Também precisamos entender a quantidade de dados necessários para analisar o problema. Nesse caso, normalmente procuramos amostras grandes, pois é um caso de Eleição. Por outro lado, se a análise for feita na área de Saúde, é difícil ir para uma grande população porque existe a possibilidade de não conseguir gente suficiente para validar a hipótese. Além disso, a qualidade dos dados é muito importante.
  2. Extrair dados - Por exemplo, se tomarmos uma amostra da população, podemos olhar para atributos, como alta renda, baixa renda, idade, população ativa (externa / local), residentes, NRI, cobertura de hospitais, etc., para iniciar o estudo . Aqui, podemos não precisar de tantos atributos para a hipótese. Entendemos que atributos, como alta e baixa renda, podem não ser os fatores que contribuem para determinar quem vencerá a eleição. Mas a idade pode fazer a diferença, pois dá uma contagem direta de quantas pessoas vão votar. Muitas vezes podemos excluir atributos menos usados ​​ou incluir atributos que são úteis. Isso pode dar errado em ambos os casos. Essa é a razão pela qual a análise é um desafio.
  3. Massageie os dados para se ajustarem à ferramenta - Isso ocorre porque nem todas as ferramentas podem aceitar todos os dados. Certas ferramentas aceitam apenas dados CSV ou dados Excel. A falta de ferramentas é um desafio.
  4. Execute a análise - Esta operação pode ser realizada usando várias técnicas de análise.
  5. Tirar conclusões - A análise fornece números para ser mais preciso. Mas cabe ao usuário tirar conclusões desses números. Por exemplo, se diz 10% ou 20%, devemos entender o que significa? Ele deriva correlação entre o Atributo A e o Atributo B?
  6. Implementar resultados - É importante implementar conclusões para ver os resultados nos negócios. Por exemplo, pode-se concluir que ‘Pessoas compram Umbrella na estação das chuvas’ o que pode resultar em mais negócios. Aqui, precisamos implementar a conclusão onde fazemos guarda-chuva, disponível nas lojas, mas então pode haver problemas de gestão. No momento em que as estatísticas dão resultado, a implementação pode dar errado.
  7. Monitorar o progresso - A última etapa aqui, o monitoramento desempenha um papel importante. O monitoramento pode dar errado porque poucas organizações desejam monitorar o progresso e isso é considerado uma etapa insignificante. Mas o monitoramento é importante porque podemos entender se nossas pesquisas e conclusões estão indo na direção certa.

Verifique também este artigo' Correlação não significa causalidade 'o que dá uma ideia de como os analistas podem errar. Um ponto importante a ser observado neste gráfico é que a execução da análise é a única etapa em que a máquina é responsável e, além disso, cabe a um ser humano que determinará como a pesquisa é feita.

Tem alguma questão para nós? Mencione-os na seção de comentários e entraremos em contato com você.



Noções básicas de servidor sql para iniciantes

Postagens relacionadas: