#Analytics

0 Seguidores · 48 Postagens

Esta tag está relacionada às discussões sobre o desenvolvimento de soluções de análise e inteligência de negócios, visualização, KPI e gerenciamento de outras métricas de negócios.

Artigo Heloisa Paiva · Fev. 27, 2025 6m read

A InterSystems está na vanguarda da tecnologia de bancos de dados desde sua criação, sendo pioneira em inovações que consistentemente superam concorrentes como Oracle, IBM e Microsoft. Ao se concentrar em um design de kernel eficiente e adotar uma abordagem intransigente em relação ao desempenho de dados, a InterSystems criou um nicho em aplicações de missão crítica, garantindo confiabilidade, velocidade e escalabilidade.

A História de Excelência Técnica

0
0 39
Anúncio Arthur Milheiro · Set. 10, 2024

Estou animado em compartilhar que a equipe de Learning Services adicionou recentemente novo conteúdo ao nosso InterSystems Reports Learning Path. Esses vídeos mais recentes, criados por nosso parceiro, insightsoftware, fornecem instruções para desenvolver relatórios com o InterSystems Report Designer.

Nesses três vídeos curtos, você aprenderá como:

0
0 48
Artigo Danusa Calixto · Abr. 12, 2024 4m read
       

Como incluir dados do IRIS no seu Data Warehouse do Google Big Query e em suas explorações de dados do Data Studio.  Neste artigo, vamos usar o Google Cloud Dataflow para nos conectarmos com o InterSystems Cloud SQL Service  e criar um job para persistir os resultados de uma consulta do IRIS no Big Query em um intervalo. 

Se você teve a sorte de ganhar acesso ao Cloud SQL no Global Summit 2022, conforme mencionado em "InterSystems IRIS: What's New, What's Next", o exemplo será muito fácil. No entanto, também é possível fazer isso com qualquer listener acessível publicamente ou por VPC que você provisionar.

Pré-requisitos

 
Provisione o InterSystems Cloud SQL para uso temporário
Talvez você precise fazer algumas ligações ou solicitar acesso pelo portal, como fiz para testar o InterSystems Cloud SQL, mas é uma maneira muito rápida de começar a trabalhar em segundos para realizar essa demonstração ou suas cargas de trabalho do IRIS.

Ao inspecionar sua implantação, você pode acessar o painel "Conexões externas" na guia de visão geral, criar um URL de conexão e manter suas credenciais.  Fomos diretamente para o acesso público (0.0.0.0/0) ao listener e escolhemos não critografá-lo.
 
Do acima, você divulgará as seguintes informações...
ConnectionURL: 

jdbc:IRIS://k8s-c5ce7068-a4244044-265532e16d-2be47d3d6962f6cc.elb.us-east-1.amazonaws.com:1972/USER
User/Pass:
SQLAdmin/Testing12!
DriverClassName:
com.intersystems.jdbc.IRISDriver
 
Configure o Google Cloud Platform
  • Provisione um projeto do GCP
gcloud projects create iris-2-datastudio --set-as-default
  • Ative o Big Query
  • Ative o DataFlow
  • Enable Cloud Storage
gcloud services enable  bigquery.googleapis.com
gcloud services enable dataflow.googleapis.com
gcloud services enable storage.googleapis.com
  • Crie um bucket do Cloud Storage
gsutil mb gs://iris-2-datastudio
wget https://github.com/intersystems-community/iris-driver-distribution/raw/main/intersystems-jdbc-3.3.0.jar
gsutil cp intersystems-jdbc-3.3.0.jar gs://iris-2-datastudio
  • Crie um conjunto de dados do Big Query
bq --location=us mk \
--dataset \
--description "sqlaas to big query" \
iris-2-datastudio:irisdata
  • Crie uma tabela de destino do Big Query

Aqui, uma vantagem superpoderosa se torna meio incômoda para nós.  O Big Query pode criar tabelas dinamicamente se você fornecer um esquema com sua carga útil. Isso é ótimo dentro de pipelines e soluções, mas, em nosso caso, precisamos estabelecer a tabela com antecedência.  O processo é simples, já que você pode exportar um CSV do banco de dados do IRIS facilmente com algo como o DBeaver, depois invocar a caixa de diálogo "criar tabela" abaixo do conjunto de dados criado e usar o CSV para criar sua tabela.  Verifique se "gerar esquema automaticamente" está marcado na parte inferior da caixa de diálogo.
 Isso conclui a configuração do Google Cloud Platform, e deve estar tudo pronto para configurar e executar o job do Dataflow.

Job do Google Dataflow
Se você seguiu as etapas acima, deverá ter o seguinte no seu inventário para executar o job de ler os dados do InterSystems IRIS e ingeri-los no Google Big Query usando o Google Dataflow.
No Console do Google Cloud, acesse o Dataflow e selecione "Criar job a partir do modelo"
 
Essa é uma ilustração um tanto desnecessária/exaustiva sobre como preencher um formulário com os pré-requisitos gerados, mas indica a origem dos componentes...

 

 ... para completar, abra a seção inferior e forneça suas credenciais do IRIS.

 

Para quem achou essas capturas de tela ofensivas à própria inteligência, aqui está o caminho alternativo para deixar você dentro da sua zona de conforto na CLI para executar o job​:

gcloud dataflow jobs run iris-2-bq-dataflow \
--gcs-location gs://dataflow-templates-us-central1/latest/Jdbc_to_BigQuery \
--region us-central1 --num-workers 2 \
--staging-location gs://iris-2-datastudio/tmp \
--parameters connectionURL=jdbc:IRIS://k8s-c5ce7068-a4244044-265532e16d-2be47d3d6962f6cc.elb.us-east-1.amazonaws.com:1972/USER,driverClassName=com.intersystems.jdbc.IRISDriver,query=SELECT TABLE_CATALOG, TABLE_SCHEMA, TABLE_NAME, TABLE_TYPE, SELF_REFERENCING_COLUMN_NAME, REFERENCE_GENERATION, USER_DEFINED_TYPE_CATALOG, USER_DEFINED_TYPE_SCHEMA, USER_DEFINED_TYPE_NAME, IS_INSERTABLE_INTO, IS_TYPED, CLASSNAME, DESCRIPTION, OWNER, IS_SHARDED FROM INFORMATION_SCHEMA.TABLES;,outputTable=iris-2-datastudio:irisdata.dataflowtable,driverJars=gs://iris-2-datastudio/intersystems-jdbc-3.3.0.jar,bigQueryLoadingTemporaryDirectory=gs://iris-2-datastudio/input,username=SQLAdmin,password=Testing12!

Após iniciar o job, aproveite a glória de uma execução de job bem-sucedida:

 
Resultados
Observando a consulta e os dados de origem no InterSystems Cloud SQL...
 

... e inspecionando os resultados no Big Query, parece que realmente temos os dados do InterSystems IRIS no Big Query.

 
Depois de ter os dados no Big Query, é simples incluir nossos dados do IRIS no Data Studio ao selecionar o Big Query como fonte de dados... o exemplo abaixo não é muito elegante, mas você pode ver rapidamente os dados do IRIS prontos para manipulação no seu projeto do Data Studio.


 
 

0
0 93
Artigo Rochael Ribeiro · jan 24, 2024 6m read

No cenário de dados atual, as empresas enfrentam vários desafios diferentes. Um deles é fazer análises sobre uma camada de dados unificada e harmonizada disponível para todos os consumidores. Uma camada que possa oferecer as mesmas respostas às mesmas perguntas, independentemente do dialeto ou da ferramenta usada. A Plataforma de Dados InterSystems IRIS responde a isso com um complemento de Análise Adaptativa que pode fornecer essa camada semântica unificada. Há muitos artigos no DevCommunity sobre como usá-lo por ferramentas de BI. Este artigo abordará como consumi-lo com IA e também como recuperar alguns insights. Vamos ir por etapas...

O que é a Análise Adaptativa?

Você pode facilmente encontrar uma definição [no site developer community] ​(https://community.intersystems.com/tags/adaptive-analytics) Resumindo, ela pode fornecer dados de forma estruturada e harmonizada para diversas ferramentas de sua escolha para consumo e análise posterior. Ela oferece as mesmas estruturas de dados a várias ferramentas de BI. Mas... Ela também pode oferecer as mesmas estruturas de dados para suas ferramentas de IA/ML!

A Análise Adaptativa tem um componente adicional chamado AI-LINK que constrói essa ponte entre a IA e a BI.

O que é exatamente o AI-Link ?

É um componente Python criado para permitir a interação programática com a camada semântica para os fins de otimizar os principais estágios do fluxo de trabalho do aprendizado de máquina (ML) (por exemplo, engenharia de características).

Com o AI-Link, você pode:

  • acessar programaticamente características do seu modelo de dados analítico;
  • fazer consultas, explorar dimensões e medidas;
  • alimentar pipelines de ML; ... e enviar os resultados de volta à camada semântica para que sejam consumidos novamente por outras (por exemplo, pelo Tableau ou Excel).

Como é uma biblioteca Python, ela pode ser usada em qualquer ambiente Python. Incluindo Notebooks. Neste artigo, darei um exemplo simples de como alcançar a solução de Análise Adaptativa a partir do Jupyter Notebook com a ajuda do AI-Link.

Aqui está o repositório git com o Notebook completo como exemplo: https://github.com/v23ent/aa-hands-on

Pré-requisitos

Para os passos a seguir, presume-se que você concluiu os pré-requisitos:

  1. Solução de Análise Adaptativa em funcionamento (com a Plataforma de Dados IRIS como armazém de dados)
  2. Jupyter Notebook em funcionamento
  3. Conexão entre 1. e 2. pode ser estabelecida

Etapa 1: configuração

Primeiro, vamos instalar os componentes necessários em nosso ambiente. Isso baixará alguns pacotes que são necessários para que as próximas etapas funcionem. 'atscale' - nosso pacote principal para a conexão 'prophet' - pacote de que precisaremos para fazer previsões

pip install atscale prophet

Em seguida, precisamos importar as principais classes que representam alguns conceitos importantes da nossa camada semântica. Client - classe que usaremos para estabelecer uma conexão com a Análise Adaptativa; Project - classe para representar projetos dentro da Análise Adaptativa; DataModel - classe que representará nosso cubo virtual;

from atscale.client import Client
from atscale.data_model import DataModel
from atscale.project import Project
from prophet import Prophet
import pandas as pd 

Etapa 2: conexão

Agora, deve estar tudo pronto para estabelecer uma conexão com nossa origem de dados.

client = Client(server='http://adaptive.analytics.server', username='sample')
client.connect()

Vá em frente e especifique os detalhes de conexão da sua instância da Análise Adaptativa. Quando for solicitada a organização, responda na caixa de diálogo e insira sua senha da instância da AtScale.

Com a conexão estabelecida, você precisará selecionar seu projeto da lista de projetos publicados no servidor. Você verá a lista de projetos como um prompt interativo, e a resposta deve ser o ID inteiro do projeto. O modelo de dados será selecionado automaticamente se for o único.

project = client.select_project()   
data_model = project.select_data_model()

Etapa 3: explore seu conjunto de dados

Há vários métodos preparados pela AtScale na biblioteca de componentes do AI-Link. Eles permitem explorar seu catálogo de dados, consultar dados e até ingerir alguns dados de volta. A documentação da AtScale tem uma vasta referência da API, descrevendo tudo o que está disponível. Primeiro, vamos ver qual é o nosso conjunto de dados ao chamar alguns métodos de "data_model":

data_model.get_features()
data_model.get_all_categorical_feature_names()
data_model.get_all_numeric_feature_names()

A saída será algo assim image

Depois de olhar um pouco, podemos consultar os dados em que realmente temos interesse usando o método "get_data". Ele retornará um DataFrame do pandas com os resultados da consulta.

df = data_model.get_data(feature_list = ['Country','Region','m_AmountOfSale_sum'])
df = df.sort_values(by='m_AmountOfSale_sum')
df.head()

Que mostrará seu dataframe: image

Vamos preparar um conjunto de dados e exibi-lo rapidamente no gráfico

import matplotlib.pyplot as plt

# Estamos pegando as vendas para cada data
dataframe = data_model.get_data(feature_list = ['Date','m_AmountOfSale_sum'])

# Crie um gráfico de linhas
plt.plot(dataframe['Date'], dataframe['m_AmountOfSale_sum'])

# Adicione rótulos e um título
plt.xlabel('Days')
plt.ylabel('Sales')
plt.title('Daily Sales Data')

# Exiba o gráfico
plt.show()

Saída: image

Etapa 4: previsão

A próxima etapa seria obter um valor da ponte do AI-Link - vamos fazer algumas previsões simples!

# Carregue os dados históricos para treinar o modelo
data_train = data_model.get_data(
    feature_list = ['Date','m_AmountOfSale_sum'],
    filter_less = {'Date':'2021-01-01'}
    )
data_test = data_model.get_data(
    feature_list = ['Date','m_AmountOfSale_sum'],
    filter_greater = {'Date':'2021-01-01'}
    )

Obtemos 2 conjuntos de dados diferentes aqui: para treinar e testar nosso modelo.

# Para a ferramenta, escolhemos fazer a previsão "Prophet", em que precisamos especificar 2 colunas: "ds" e "y"
data_train['ds'] = pd.to_datetime(data_train['Date'])
data_train.rename(columns={'m_AmountOfSale_sum': 'y'}, inplace=True)
data_test['ds'] = pd.to_datetime(data_test['Date'])
data_test.rename(columns={'m_AmountOfSale_sum': 'y'}, inplace=True)

# Inicialize e ajuste o modelo Prophet
model = Prophet()
model.fit(data_train)

Em seguida, criamos outro dataframe para acomodar nossa previsão e exibi-la no gráfico

# Crie um dataframe futuro para previsão
future = pd.DataFrame()
future['ds'] = pd.date_range(start='2021-01-01', end='2021-12-31', freq='D')

# Faça previsões
forecast = model.predict(future)
fig = model.plot(forecast)
fig.show()

Saída: image

Etapa 5: writeback

Depois de obter a previsão, podemos colocá-la de volta no armazém de dados e adicionar uma agregação ao nosso modelo semântico para que reflita para outros consumidores. A previsão estaria disponível por qualquer outra ferramenta de BI para usuários empresariais e analistas de BI. A previsão em si será colocada em nosso armazém de dados e armazenada lá.

from atscale.db.connections import Iris
db = Iris(
    username,
    host,
    host,
    driver,
    schema, 
    schema,
    password=None, 
    warehouse_id=None
    )

data_model.writeback(dbconn=db,
                    table_name= 'SalesPrediction',
                    DataFrame = forecast)

data_model.create_aggregate_feature(dataset_name='SalesPrediction',
                                    column_name='SalesForecasted',
                                    name='sum_sales_forecasted',
                                    aggregation_type='SUM')

Fim

É isso! Boa sorte com suas previsões!

0
0 65
Artigo Danusa Calixto · jan 10, 2024 4m read

Alguns meses atrás, enfrentei um desafio importante: otimizar o tratamento da lógica de negócios em nosso aplicativo. Meu objetivo era extrair a lógica de negócios do código e passar para analistas. Lidar com várias regras pode resultar facilmente em um código desorganizado com uma infinidade de instruções "if", especialmente se o programador não entende a complexidade ciclomática. Esse código vira uma dor de cabeça para quem trabalha com ele — difícil de escrever, testar e desenvolver.

 
Spoiler
Para quem não tem interesse nos detalhes, observe a funcionalidade aqui e implante o aplicativo por conta própria.

https://openexchange.intersystems.com/package/iris-dmn

Depois de explorar várias opções, incluindo tentar ensinar Python a analistas 😀, me deparei com a técnica Decision Model Notation (DMN) para descrever a lógica de negócios. Ela se mostrou um sucesso — analistas poderiam agora articular a lógica de negócios sozinhos, reduzindo mais de mil linhas de código a apenas três + arquivo de descrição DMN.

Agora, vamos nos aprofundar na solução.

O DMN, concebido em 2015 pelos criadores do BPMN, interage bem com o último, mas também pode ser usado de maneira independente.

O principal conceito do DMN é a capacidade de gerenciar decisões semelhantes a outros aspectos dos seus aplicativos. Por exemplo, considere uma solução para calcular bônus — você pode modificá-la de maneira independente sem afetar outros elementos do aplicativo.

O DMN opera de duas formas:

  1. Analítica: compondo tabelas de solução em programas, programados por desenvolvedores.
  2. Automação: executando tabelas diretamente com o mecanismo do DMN, minimizando o risco de desenvolvedores interpretarem errado as especificações técnicas.

Portanto, nosso código é parecido com isto 

 

 Será uma tabela simples

Basicamente, é uma tabela em que os seguintes itens são definidos:

  1. Dados de entrada com seus tipos (strings, booleanos, inteiros, longos, duplos, datas).
  2. As linhas de regras aplicadas aos dados de entrada.
  3. A política de seleção de regras (política de hits) que determina a ordem e o número de regras acionadas (primeira bem-sucedida, única, todas as correspondentes etc.).
  4. A decisão final correspondente à linha de regras correspondente.

Em conclusão, o uso do Decision Model and Notation (DMN) oferece vários benefícios para a gestão da lógica de negócios:

  1. Clareza e transparência: o DMN oferece uma forma clara e transparente de expressar lógica de negócios complexa. Isso permite a representação visual das tabelas de decisão, facilitando para as partes interessas técnicas ou não entenderem e colaborarem nas regras de negócios.
  2. Separação de preocupações: ao extrair a lógica de negócios do código e representá-la no DMN, há uma clara separação de preocupações entre desenvolvedores e analistas de negócios. Os analistas podem articular e modificar as regras sem entrar nas complexidades do código, promovendo a colaboração e agilidade.
  3. Manutenção e flexibilidade: o DMN facilita a manutenção e atualização das regras de negócios. As mudanças na lógica de negócios podem ser implementadas ao ajustar as tabelas do DMN, sem precisar de grandes modificações de código. Isso otimiza a flexibilidade do sistema de se adaptar aos requisitos de negócios em constante mudança.
  4. Menor complexidade do código: utilizar o DMN ajuda a reduzir a complexidade do código. Em vez de incorporar uma lógica complicada de tomada de decisões na base de código, a lógica é encapsulada em um formato visual e estruturado, deixando a base de código mais administrável e compreensível.
  5. Mitigação de riscos: o uso do DMN, especialmente em cenários de tomada de decisão automatizados, mitiga o risco de má interpretação ou implementação das regras de negócios. O mecanismo do DMN garante que as decisões sejam executadas corretamente com base nas regras definidas, minimizando erros.
  6. Eficiência no desenvolvimento: os desenvolvedores podem focar em implementar a interação entre o aplicativo e o mecanismo do DMN, em vez de escrever e depurar lógica complexa de tomada de decisões. Isso pode levar a ciclos de desenvolvimento mais rápidos e menor tempo até o mercado para aplicativos.

E sim, depois de tudo isso, você pode usar seus esquemas do DMN com os dados armazenados no seu banco de dados do IRIS - https://openexchange.intersystems.com/package/iris-dmn

Se você tiver interesse em saber mais sobre o DMN, a linguagem FEEL e o motivo pelo qual a solução foi criada em JAVA, envie suas perguntas, vou responder nos comentários em mais detalhes

Informações adicionais sobre o DMN 

https://docs.drools.org/latest/drools-docs/drools/DMN/index.html  - a documentação mais detalhada

https://sandbox.kie.org/ - sandbox online onde você tentar desenhar seu próprio diagrama 

https://learn-dmn-in-15-minutes.com/ - tutorial interativo

0
0 101
Artigo Danusa Calixto · Nov. 27, 2023 7m read

Ao analisar dados, geralmente é preciso procurar indicadores específicos com mais atenção e destacar seções de informações de especial interesse para um usuário.

 Por exemplo, examinar as dinâmicas dos dados para regiões ou datas específicas pode nos ajudar a descobrir tendências e padrões ocultos que permitem a tomada de decisões conscientes sobre nosso projeto no futuro.

Para conduzir uma análise de dados detalhada assim, é mais eficaz usar o método de análise fracionária ou detalhamento. Esse método permite "mergulhar" nos dados, saindo do quadro geral para pequenos fragmentos.

Neste artigo, vamos dar uma visão clara sobre como organizar a navegação com a ajuda de técnicas de detalhamento entre relatórios na DSW (DeepSeeWeb) e do InterSystems Reports (com a tecnologia do Logi Reports) usando filtros em links.

Por que escolhemos essa solução?

Ao realizar nossas tarefas, nos deparamos com a necessidade de simplificar a navegação dos relatórios gerais para os dados mais detalhados, considerando diferentes categorias, como datas, regiões ou participantes. Por esse motivo, decidimos encontrar uma maneira de migrar de um relatório geral para um detalhado com uma data específica ou outras características em apenas um clique.

Uma solução que usa filtros em links mostrou ser a opção mais adequada para essa tarefa. A plataforma DSW oferece uma ampla variedade de ferramentas que permite configurar parâmetros de filtros com flexibilidade e passar esses filtros de links de URLs para relatórios. Por sua vez, ela deixa a navegação entre relatórios mais confortável e preserva o contexto para uma análise de dados mais complexa.

Como implementamos a solução?

Para organizar a análise de dados de detalhamento na DSW utilizando filtros, seguimos estas etapas:

  1. Criando relatórios com detalhe de data

No início do processo, criamos relatórios que ofereciam informações mais explícitas sobre vários aspectos dos dados. Em nosso caso, criamos relatórios que detalham os dados por data, incluindo em meses e dias individuais.

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\mstsc_41Mja7wbXM.png

Em seguida, criamos um painel de controle com o gráfico "Novos membros" na DSW:

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\chrome_S0vsFgtwdC.png

Para cada nível de detalhe, configuramos relatórios correspondentes no InterSystems Reports. Por exemplo, para o relatório do gráfico "Novos membros" no nível do mês, fizemos o seguinte:

  • Adicionamos um campo de dados no nível do mês.
  • Configuramos um gráfico que exibe novos membros pela data específica.
  1. Criando um link com filtros

Nessa etapa, precisamos configurar filtros na DSW que serão aplicados ao clicar nos links. Em nosso exemplo, o filtro deve selecionar data por data. Para ajustá-lo, siga as etapas mencionadas abaixo:

  • Você precisa selecionar o campo com o filtro "MonthYear".
  • Marque a caixa de seleção "NOW". Isso configura o filtro para a data atual.
  • Clique em "Apply" (Aplicar).

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\MkdSBQMp1b.png

Depois de clicar no gráfico com o botão direito do mouse e selecionar o campo "Share" (Compartilhar) no menu, será exibida a janela abaixo:

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\j77LqkWgQm.png

Na janela aberta com o link, copie o link ao clicar no botão "Copy" (Copiar):

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\QBAKx5zwIY.png

Até agora, configuramos os filtros na DSW. Eles serão aplicados ao clicar nos links dos relatórios gerais e detalhados. Por exemplo, para selecionar os dados de uma data específica, realizamos as seguintes etapas:

  • Selecionamos o campo para filtrar por data "[DateDimension].[H1].[MonthYear]".
  • Configuramos o filtro para a data atual ao marcar a caixa de seleção "NOW".
  • Clicamos em "Apply" para criar o filtro.
  • Copiamos o link que continha os parâmetros do filtro para o relatório na DSW com o filtro aplicado ao clicar no botão "Copy".

*Use Base64 em links com filtros

Para proporcionar ainda mais flexibilidade e confiança ao passar parâmetros de filtro em links de URL, podemos usar a codificação Base64. É uma adição conveniente que permite evitar conflitos com caracteres como "&" ou "=" que podem aparecer dentro dos dados do filtro.

Como funciona?

Na janela com o link, marque a caixa de seleção "Filters as Base64" (Filtros como Base64):

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\r2uKPVjjO1.png

Ao usar Base64, os valores dos parâmetros de filtro são convertidos em um formato específico que não contém caracteres que interferem no link de URL. Assim, obtemos uma maneira segura e confiável de transferir dados entre relatórios.

  1. Adicionando links

A próxima etapa será adicionar links a relatórios detalhados na DSW e Logi Reports em geral, que abrirá com os filtros desejados.

Por exemplo, em nosso relatório com novos participantes, vamos adicionar uma imagem com um link para nosso gráfico na DSW com um filtro de data.

  • Primeiro, você precisa inserir uma imagem em uma página dos relatórios no Logi Reports:

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\UEmGw5Ia40.png

  • No menu de contexto exibido, selecione o campo "Link...":

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\cwY5lYtXft.png

  • Em seguida, selecione "URL" no campo "Link Type" (Tipo de link):

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\A3kymH6tsE.png

  • Por fim, cole o link no campo "Hyperlink" e remova tudo o que for desnecessário para que fique como o exemplo abaixo. Em seguida, clique em "OK":

C:\Users\kc\Documents\ShareX\Screenshots\2023-09\g5fWP8qm2X.png

Vou decifrar o link do painel de controle na DSW para você:

https://public-analytics.community.intersystems.com/dsw/index.html#/DCANALYTICS/Total%20member.dashboard?FILTERS=TARGET:*;FILTER:[DateDimension].[H1].[MonthYear].&[NOW]&widget=Total Members

Vamos dividir em partes:

https://public-analytics.community.intersystems.com/dsw/index.html#/DCANALYTICS/Total%20member.dashboard - um caminho para o painel de controle "Total de membros" no espaço DCANALYTICS

?FILTERS=TARGET:* - um comando para aplicar um filtro a todos os objetos no painel de controle (TARGET:*)

FILTER:[DateDimension].[H1].[MonthYear].&[NOW] - o filtro. Filtra os dados pelo campo [DateDimension], usando a hierarquia [H1] no nível [MonthYear]. &[NOW] - significa o mês atual.

&widget=Total Members - um comando que abre o painel de controle e foca no widget "Total de membros".

Então, esse link faz tudo isto:

Ele abre o painel de controle "Total de membros".

Ele aplica um filtro no campo "Date" (Data), selecionando o mês atual.

Ele foca no widget "Total de membros".

Portanto, o relatório mostrará dados sobre o número total de participantes para o mês atual. O filtro é aplicado automaticamente quando o painel de controle é aberto.

Os links podem ser colocados no relatório diretamente como texto ou você pode incluí-los como botões ou imagens.

Para possibilitar a transição entre relatórios, adicionamos os links apropriados ao InterSystems Reports. Por exemplo, inserimos uma imagem vinculada a um relatório da DSW com um filtro de data ao relatório com um gráfico de novos participantes. Para fazer o mesmo, siga estas etapas:

  • Insira uma imagem em um relatório do Logi Reports.
  • No menu de contexto, selecione "Link".
  • Cole o link que você copiou antes e clique em "OK".

Agora, ao clicar na imagem, é aberto um relatório na DSW com os dados dos novos membros para o mês atual.

Vantagens da solução realizada

A abordagem descrita de organização detalhada usando filtros em referências tem as seguintes vantagens:

  • Fácil de implementar: não exige programação nem lógica complexa
  • Flexível: é possível adicionar ou mudar filtros e links sem esforço
  • Intuitivo: navegação de um botão sem perder o contexto
  • Rápido desempenho: os dados já são pré-filtrados
  • Multiplataforma: a solução funciona em qualquer navegador

Com essa abordagem, conseguimos adicionar uma capacidade de detalhamento de dados conveniente para analistas. Como resultado, eles podem "mergulhar" de maneira independente nos relatórios com apenas um clique do mouse conforme necessário.

Isso acelera significativamente a análise de dados, permite a identificação mais rápida de situações fora do padrão e oferece uma compreensão das causas de desvio. Consequentemente, a gestão da tomada de decisões se torna mais justificada.

Conclusões sobre as capacidades da análise de detalhamento

Além dos benefícios descritos neste artigo, a análise de dados de detalhamento oferece diversas outras capacidades avançadas:

Detalhamento profundo: os usuários ainda podem detalhar vários níveis dos dados, analisando até mesmo os menores detalhes e identificando os padrões e as anomalias mais ocultas.

Análise comparativa: a análise de detalhamento permite que você compare dados entre diferentes níveis de dados ou fatias, o que pode ser útil ao identificar diferenças e tendências.

Interatividade: os usuários podem mudar os parâmetros de filtragem em tempo real e ver como isso afeta os resultados, deixando a análise mais interativa e adaptativa.

Estrutura hierárquica: se os dados têm uma estrutura hierárquica (por exemplo, uma hierarquia organizacional), a análise de detalhamento facilita examinar os dados em diferentes níveis dessa hierarquia.

Suporte a várias medidas: os usuários podem analisar várias medidas ao mesmo tempo, permitindo que os dados sejam vistos de várias perspectivas.

Crie relatórios na hora: a análise de detalhamento permite que os usuários criem relatórios personalizados com base no relatório de modelo ao adicionar ou remover parâmetros de detalhamento como quiserem.

Gerencie níveis de acesso: você pode gerenciar o acesso do usuário a diferentes níveis de granularidade, garantindo a segurança dos dados.

Automação do processo: algumas ferramentas de análise de detalhamento permitem que você automatize a filtragem e as transições entre relatórios, poupando bastante tempo dos analistas.

Compatíveis com dados diversos: a análise de detalhamento pode ser aplicada a uma variedade de origens de dados, incluindo bancos de dados, planilhas e serviços da Web.

Monitoramento e alertas: alguns sistemas de análise de detalhamento permitem que você personalize o monitoramento de dados e receba alertas quando ocorrerem mudanças importantes.

Todos os recursos mencionados acima fazem com que a análise de detalhamento seja uma ferramenta poderosa para analisar dados e tomar decisões de gestão informadas. Com ela, é possível explorar dados em um nível profundo, descobrir novos insights e, por fim, melhorar a eficiência dos processos de negócios.  

0
0 100
InterSystems Oficial Danusa Calixto · Nov. 23, 2023

Olá Comunidade! 

Quero compartilhar com vocês uma nova abordagem para solucionar os desafios de otimizar o gerenciamento de dados da InterSystems: o InterSystems TotalView™ For Asset Management, que oferece uma maneira melhor de integrar e transformar dados, criando uma fonte única, confiável e oportuna, para impulsionar decisões críticas. 

0
0 74
Artigo Danusa Calixto · Ago. 8, 2023 4m read

Com o InterSystems IRIS 2022.2, apresentamos o armazenamento colunar como uma nova opção para a persistência das suas tabelas SQL do IRIS que pode otimizar suas consultas analíticas por ordem de magnitude. O recurso está marcado como experimental em 2022.2 e 2022.3, mas se tornará um recurso de produção totalmente compatível no próximo lançamento de 2023.1. 

A documentação do produto e este vídeo introdutório já descrevem as diferenças entre o armazenamento em linhas, que ainda é o padrão no IRIS e é usado pela nossa base de clientes, e o armazenamento de tabela colunar, além de fornecer orientações de alta qualidade para a escolha do layout de armazenamento adequado para seu caso de uso. Neste artigo, vamos falar sobre esse tema e compartilhar algumas recomendações com base nos princípios de modelagem do setor, testes internos e feedback dos participantes do Programa de Acesso Antecipado. 

Em geral, nossas orientações para escolher um layout de tabela adequado para seu esquema SQL do IRIS são as seguintes:

  1. Se você estiver implantando um aplicativo que usa o SQL ou Objects do IRIS, como um aplicativo de EHR, ERP ou processamento de transações, não é necessário mudar o armazenamento em linhas atual para o layout colunar. A maioria das consultas SQL emitidas para aplicativos ou transações programáticas de usuários finais só recuperam ou atualizam um número limitado de linhas, e as linhas de resultado geralmente correspondem às linhas da tabela, com uso bastante limitado das funções de agregação. Nesses casos, os benefícios oferecidos pelo armazenamento colunar e o processamento de consultas vetorizado não se aplicam.  
  2. Se esse aplicativo também incorpora a análise operacional, considere adicionar índices colunares se o desempenho atual das consultas analíticas correspondentes não for satisfatório. Isso inclui, por exemplo, painéis que mostram o inventário atual ou relatórios financeiros básicos com dados em tempo real. Procure campos numéricos em agregações (por exemplo, quantidades e moedas) ou campos de cardinalidade alta usados em condições de intervalos (por exemplo, carimbos de data/hora). Um bom indicador dessas oportunidades é o uso atual de índices de bitmap para acelerar a filtragem de grandes números de linhas, geralmente em campos de cardinalidade baixa (por exemplo, campos categóricos ou ordinais). Não é necessário substituir esses índices de bitmap. Os índices colunares adicionais funcionam bem em conjunto com eles e são criados para evitar leituras excessivas do mapa principal ou dos mapas de índice normais (um único gref por linha).  
  3. Se suas tabelas SQL do IRIS tiverem menos de um milhão de linhas, não é preciso considerar o armazenamento colunar. Preferimos não nos ater a números específicos, mas os benefícios do processamento de consultas vetorizado provavelmente não farão diferença nesses níveis mais baixos.  
  4. Se você estiver implantando um esquema SQL do IRIS para armazém de dados, inteligência de negócios ou casos de uso analíticos semelhantes, considere mudar para o armazenamento colunar como padrão. Os esquemas em estrela, floco de neve ou outras estruturas de tabela desnormalizadas, além da ampla utilização de índices de bitmap e ingestão em lote, são bons indícios para esses casos de uso. As consultas analíticas que mais se beneficiam do armazenamento colunar são aquelas que verificam grandes números de linhas e valores agregados. Ao definir uma "tabela colunar”" o IRIS recorrerá com transparência a um layout de linhas para as colunas dessa tabela que não são adequadas para o armazenamento colunar, como fluxos, strings longas ou campos seriais. O SQL do IRIS é totalmente compatível com esses layouts de tabela mistos e usará o processamento de consultas vetorizado para as partes qualificadas do plano de consulta. O valor agregado dos índices de bitmap nas tabelas colunares é limitado, então ele pode ser deixado de fora.

O proveito variará com base nos parâmetros ambientais e relacionados a dados. Portanto, recomendamos enfaticamente que os clientes testem os diferentes layouts em uma configuração representativa. Os índices colunares são fáceis de adicionar a uma tabela regular organizada por linhas e fornecerão rapidamente uma perspectiva realista dos benefícios do desempenho da consulta. Isso, com a flexibilidade de layouts de tabela mistos, é um diferencial importante do InterSystems IRIS que ajuda os clientes a obter uma melhoria de desempenho de ordem de magnitude.

Pretendemos tornar essas recomendações mais concretas conforme tivermos mais experiência real com a versão de produção completa. Obviamente, podemos fornecer conselhos mais concretos com base no esquema real e na carga de trabalho dos clientes pelo Programa de Acesso Antecipado e compromissos com POCs, e aguardamos o feedback de clientes e membros da comunidade. O armazenamento colunar faz parte da licença do InterSystems IRIS Advanced Server e também está habilitado na Community Edition do InterSystems IRIS e IRIS for Health. Para um ambiente de demonstração com script completo, consulte este repositório do GitHub.

0
0 77
Artigo Vitor Oliveira · Maio 13, 2023 5m read

De acordo com o relatório Global Fraud and Identity Report 2020 da Experian, as fraudes no setor financeiro globalmente ultrapassaram a marca de US$ 42 bilhões em 2020, com destaque para fraudes de identidade, bancárias, em cartões de crédito e débito, em empréstimos e em aplicativos móveis bancários. A pandemia do COVID-19 impulsionou o crescimento de fraudes relacionadas à saúde, como fraudes em benefícios de seguro-saúde e em programas de ajuda financeira do governo. Considerando tais dados, fica claro que é essencial que as instituições financeiras adotem soluções eficientes para detectar

3
14 232
Artigo Cristiano Silva · Maio 5, 2023 2m read

Apache Superset é uma plataforma moderna de exploração e visualização de dados. O Superset pode substituir ou trazer ganhos para as ferramentas proprietárias de business intelligence para muitas equipes. O Superset integra-se bem com uma variedade de fontes de dados.

E agora é possível usar também com o InterSystems IRIS.

Uma demo online está disponível e usa IRIS Cloud SQL como sua fonte de dados.

0
0 427
Anúncio Danusa Calixto · Dez. 19, 2022

No nosso último episódio do Data Points, tive uma conversa com @Thomas Dyar sobre AI Link, que ajuda a preencher a lacuna entre cientistas de dados e analistas de negócios. Nossa conversa fala sobre como o AI Link se encaixa com IntegratedML e Adaptive Analytics, bem como quais novos recursos estão no horizonte para IntegratedML. Ouça!

0
0 76
Anúncio Angelo Bruno Braga · Nov. 10, 2022

Olá desenvolvedores!

Convidamos você para um novo webinar em espanhol: "Análise de dados em FHIR. Do paciente à população", na quinta-feira, 17 de novembro, às 11h (horário de Brasília).

O webinar será transmitido ao vivo do Congresso "Iberia Summit" que a InterSystems realizará em Valência na próxima semana.

 

0
0 109
Artigo Danusa Calixto · Out. 18, 2022 1m read

Análise do InterSystems Developer Community. Projeto criado com o BI do InterSystems IRIS (DeepSee), Power BI e Logi Report Designer para visualizar e analisar membros, artigos, perguntas, respostas, visualizações e outros conteúdos e atividades no InterSystems Developer Community.

Você pode ver sua própria atividade, artigos e perguntas. Monitore a forma como sua contribuição muda a comunidade de desenvolvedores.

Analise estatísticas sobre você e seus amigos usando BI do IRIS, Análise Adaptativa, Relatórios da InterSystems, Tableau e Power BI.

Esse projeto contém implantação IRIS e Atscale pré-configurada em contêineres Docker e arquivos de projeto para sistemas de BI.

Veja mais informações detalhadas no README do aplicativo correspondente.

Esse projeto também foi implantado online e você pode conferir aqui.

0
0 65
Artigo Gerson Saito · Fev. 21, 2022 6m read

A plataforma de dados InterSystems IRIS © agora apresenta suporte nativo completo para Python, liberando o poder da linguagem de programação mais popular do mundo para criar aplicativos de missão crítica com uso intensivo de dados.

https://www.intersystems.com/news-events/news/news-item/embedded-python-intersystems-iris-data-platform/

Essa decisão estratégica leva em consideração vários fatores:

  • A grande escala no uso de Python dentro das corporações
  • Python passou ser a um padrão de fato para desenvolvimento de modelos de Machine Learning (ML)
  • A grande oferta e demanda de programadores Python.

A seguir iremos explorar esses pontos.

0
0 194
Artigo Yuri Marx · jan 13, 2022 5m read

 

Oi comunidade,

Em um trabalho intenso de curadoria e qualidade de dados, a aplicação "health dataset" entrega os conjuntos de dados acima.

Esses conjuntos de dados podem ser utilizados no seu modelo ou aplicação de Machine Learning, AutoML e de aplicações analíticas. Veja mais detalhes aqui:

Instalação

1. Clone/git pull no repositório em qualquer diretório local

$ git clone https://github.com/yurimarx/automl-heart.git

2. Abra o terminal no diretório da aplicação e execute:

$ docker-compose build

3. Execute o IRIS container:

$ docker-compose up -d

4. Faça um select no HeartDisease dataset:

0
0 286
Artigo Larissa Prussak · Out. 26, 2021 1m read

Você já ouviu falar sobre algumas restrições em cookies para rastrear visitantes em seus sites?

Um de nossos clientes me perguntou como saber realmente a contagem de visitantes.

Seu site funciona no framework WordPress, hospedado na clássica hospedagem NAMP.

Eles podem ver algumas estatísticas do Yandex Metrika conter, mas não tínhamos certeza sobre a cobertura completa.

Demos a ele o AWStats, ele pega dados de arquivos de log do Apache na hospedagem.

Mas não havia nenhum filtro de robôs e sistemas de pulsação, como UptimeRobot ou robôs de indexação de motores de busca.

0
0 84
Artigo Henry Pereira · Set. 12, 2021 3m read

https://media3.giphy.com/media/L0qTl8hl84EDly62J1/giphy.gif?cid=ecf05e47wl2uvkvz3dxsp1axa4gf5tsk7s7nqytg7vwadj38&rid=giphy.gif&ct=g

Sou apaixonado por documentários! No último final de semana estava assistindo um documentário da Netflix chamado This is Pop, como está na época do concurso InterSystems IRIS Analytics, pensei: Por que não criar um analítico da música Pop com InterSystems Iris?

O primeiro desafio era a base. Encontrei no Data World project um arquivo CSV com a lista dos top 100 da Billboard de 2000 à 2018, criado por "Michael Tauberg" @typhon, que encaixava perfeitamente.

Estava conversando com o @Henrique Dias e ele me deu a ideia de usar o Microsoft Power BI para criar um relatório com gráficos bonitos.

Quais foram os gêneros mais populares entre 2000 e 2018?

Quais artistas tiveram mais músicas na Billboard?

Que ano teve mais músicas dançantes?

Vamos analisar a base de dados, com ajuda do csvgen importamos o arquivo CSV.

A base contém:

Title — nome da música

Artist — nome do Artista

Energy — a energia da música — maior o valor, mais energia

Danceability — maior o valor, mais fácil de dançar a música

Loudness..dB.. — maior o valor, mais alta é a música

Liveness — maior o valor, mais provável que a música é uma gravação ao vivo.

Valence. — maior o valor, mais positiva é o estado de espírito da música.

Duration_ms. — a duração da música em milisegundos.

Acousticness.. maior o valor, mais acústica é a música

Speechiness. — maior o valor, mais palavras a música contém

Lyrics — Letra da música.

Genre — Gênero musical

No arquivo CSV o gênero é um array como este: [u'dance pop', u'hip pop', u'pop', u'pop rap', u'rap']

Minha ideia é criar uma tabela Genre (Gênero) e outra para resolver o relacionamento N:N. Um simples script popula estas tabelas.

Depois disto, é só conectar o Power BI no InterSystems Iris (aqui tem um passo-a-passo de como fazer isto).

Próximo passo: Infograficos legais.

https://github.com/henryhamon/pop-song-analytics/blob/master/assets/pop_songs_analytics_1.png?raw=true

Um gráfico de barras mostra a quantidade de artistas com mais músicas na Billboard e um gráfico de linha exibe a duração média das músicas por ano.

Um gráfico de pizza mostra os gêneros mais comuns, para minha surpresa, country contemporâneo é o gênero mais popular.

Música pop tem se tornado barulhenta com o passar dos anos? Para responder usei um diagrama de dispersão com a média loudness das músicas.

A música pop tem se tornado menos ou mais dançante?

Na segunda página um gráfico de barras mostra a como a danceability mudou pelos anos e a relação entre energy versus acousticness.

https://github.com/henryhamon/pop-song-analytics/blob/master/assets/pop_songs_analytics_2.png?raw=true

https://openexchange.intersystems.com/contest/current

Agradecimento especial ao @Henrique Dias pelas boas conversas e pelo apoio.

0
0 107
Anúncio Evgeny Shvarov · Ago. 27, 2021

Olá Desenvolvedores!

Aqui estão os bônus tecnológicos para o Concurso InterSystems IRIS Analytics que irão fornecer pontos extras na votação.

Uso de Cubos do Adaptive Analytics (AtScale) - 4 pontos
O InterSystems Adaptive Analytics fornece a opção de criar e utilizar cubos do AtScale em soluções analíticas.

Você pode utilizar o servidor AtScale que disponibilizamos para o concurso (a URL e as credenciais podem ser obtidas através do Canal do Discord) para utilizar os cubos ou criar o seu próprio e conectar com seu servidor IRIS através de JDBC.

A camada de visualização para sua solução analítica com o AtScale pode ser construída com o uso do Tableau, PowerBI, Excel ou Logi.

Documentação, Documentação do AtScale

Treinamento

0
0 86
Anúncio Angelo Bruno Braga · Ago. 16, 2021

Olá Comunidade,

Estamos muito felizes em convidar todos os desenvolvedores para o Webinar de Lançamento do Concurso InterSystems IRIS Analytics! O tópico deste webinar é dedicado ao Concurso InterSystems IRIS Analytics.

Neste webinar iremos demonstrar o AtScale, o InterSystems Reports (Logi), o IRIS BI, o IRIS NLP e responder as perguntas referentes a como desenvolver, construir e implantar aplicações Analíticas utilizando a plataforma de dados InterSystems IRIS.

Data & Horário: Segunda-feira, 23 de Agosto — 12:00 horário de brasília

Palestrantes:  
🗣 @Carmen Logue, Gerente de Produtos InterSystems - Analytics e Inteligência Artificial
🗣 @Evgeny Shvarov, Gerente do Ecossistema para Desenvolvedores InterSystems


0
0 64
Artigo Fernando Ferreira · Mar. 25, 2021 6m read

Olá comunidade,

  Nesta 4ª parte vamos falar de uma funcionalidade do InterSystems IRIS Reports chamada de “Bursting”. Vamos primeiro relembrar o que já vimos até o momento.

Entendemos o que é o InterSystems IRIS Reports, instalamos os ambientes: Designer e Server, verificamos os diversos tipos e formatos de relatórios que podemos desenvolver, e entendemos como distribuir um relatório em diversos formatos.

Mas afinal o que é o “Bursting”? Antes de demonstrar está funcionalidade em ação, vamos primeiro refletir sobre a sua necessidade.

Todos nós já nos deparamos com necessidade de processar relatórios com milhares de linhas, e este tipo de relatório normalmente tem um alto custo de processamento no banco de dados com milhares de linhas que não são destinadas a um único usuário, você precisa segregar as informações por região, por alguma categoria seja de produto ou um tipo de exame, ou por alguma hierarquia existente para o seu tipo de negócio. Sem o InterSystems IRIS Reports, você precisaria desenvolver uma ou mais queries aplicando técnicas para filtrar dados com as opções de “filtro” que usuário precisa ou pode ter acesso, e podem ocorrer mais de uma execução por diversos usuários ao longo do dia.

0
0 177