Mostrar mensagens com a etiqueta rmf. Mostrar todas as mensagens
Mostrar mensagens com a etiqueta rmf. Mostrar todas as mensagens

quinta-feira, 22 de janeiro de 2026

🍔💾 Essential z/OS Performance Tuning Workshop achando os vilões

 

Bellacosa Mainframe apresenta caçando os vilões em zos performance tuning

🍔💾 Essential z/OS Performance Tuning Workshop achando os vilões

Versão técnica: RMF, SMF e a arte de não tunar errado

O Essential z/OS Performance Tuning Workshop separa, logo de cara, dois tipos de profissionais:

  1. Quem acha que faz performance tuning

  2. Quem sabe onde olhar primeiro

Essa versão é para o segundo grupo — ou para quem quer migrar do 1️⃣ para o 2️⃣ sem trauma.


🎯 Regra zero do workshop

Nunca comece pelo parâmetro. Comece pela observação.

Antes de qualquer ALTER, DEFINE ou SET:

  • Qual workload?

  • Qual período?

  • O que mudou?

  • Existe baseline?

Sem isso, tuning vira superstição técnica.


🧠 CPU: o falso vilão

Onde olhar no RMF

RMF CPU Activity Report (Postprocessor)

Campos clássicos:

  • % Busy

  • % LPAR Utilization

  • % Logical Processor Dispatch

  • % IFA / zIIP / zAAP (quando aplicável)

Interpretação que o workshop ensina

  • CPU alta com response time estável → sistema saudável

  • CPU média com response time degradando → gargalo fora da CPU

  • CPU baixa + atraso → WLM ou I/O

📌 Easter egg técnico:
Se o LPAR Delay cresce, não é falta de tuning — é falta de peso ou política errada.


⚙️ WLM: tuning começa aqui, não no SYS1.PARMLIB

RMF Workload Activity Report

Campos críticos:

  • Service Class Period

  • Velocity

  • Average Response Time

  • Delay Reasons

Exemplo típico visto no workshop:

Service Class: ONLINE_HI Velocity Goal: 50 Achieved Velocity: 12 Delay: I/O 65%, Enqueue 20%

👉 Conclusão correta:

  • Não adianta subir prioridade

  • Não adianta mexer em CPU

  • O gargalo não é WLM, é dependência externa

💡 Lição central:

WLM não resolve gargalo físico. Ele apenas escolhe quem sofre primeiro.


📊 RMF Monitor III: o “agora dói aqui”

Uso correto (e erro comum)

Monitor III serve para:

  • Incidente ativo

  • Observação em tempo real

  • Confirmação de suspeita

Não serve para:

  • Análise histórica

  • Decisão estrutural

  • Justificativa pós-morte

Campos típicos:

  • Address Space Delay

  • Device Response Time

  • Enqueue Waits

📌 Erro clássico:
Usar Monitor III como prova definitiva em reunião de causa raiz.


🗃️ SMF: onde a discussão acaba

SMF 30 – Address Space Accounting

Usado para responder:

  • Quem consumiu CPU?

  • Quanto?

  • Em qual período?

Exemplo prático:

SMF30: CPU Time: baixo Elapsed Time: alto

👉 Indício claro:

  • Espera externa

  • I/O

  • Lock

  • Dependência de outro job


SMF 70 / 72 – CPU e WLM

SMF 72 é o coração do tuning orientado a SLA.

Campos essenciais:

  • Service Class Performance Index

  • Delay Breakdown

  • Period Transitions

📌 Easter egg de workshop:
Performance Index < 1.0 não é vitória se o response time continua ruim.


SMF 74 – I/O e Storage

Onde muitos problemas se revelam.

Campos observados:

  • Device Response Time

  • Pending Time

  • Channel Utilization

Exemplo clássico:

  • CPU “sobrando”

  • Response time alto

  • 3390 com Pending elevado

👉 Solução raramente é tuning de parâmetro.
Normalmente é layout, cache, storage tier ou concorrência mal planejada.


⚠️ Casos clássicos discutidos no workshop

🔥 “O batch atrasou tudo”

RMF mostra:

  • Batch em baixa prioridade

  • Online atrasando

SMF revela:

  • Batch segurando enqueue crítico

  • Online esperando lock

👉 Ajuste correto:

  • Revisar serialização

  • Reavaliar janela batch

  • Não subir prioridade às cegas


🔥 “Depois da mudança ficou lento”

Primeira pergunta ensinada no workshop:

Qual foi o último change?

Sem resposta clara:

  • tuning suspenso

  • investigação começa

📌 Lição dura:

Performance tuning não corrige change mal feito.
Ele só mascara — até piorar.


🚀 O que o workshop realmente forma

Não forma “tuner de parâmetro”.
Forma analista de comportamento do sistema.

Quem sai sabendo:

  • Correlacionar RMF + SMF

  • Defender decisão com dados

  • Evitar tuning destrutivo

  • Criar baseline útil

No CPD, isso vira reputação.


🧠 Frase final  

“RMF mostra o sintoma.
SMF mostra a causa.
WLM executa a decisão — certa ou errada.”

O Essential z/OS Performance Tuning Workshop não ensina atalhos.
Ensina responsabilidade técnica em ambiente onde erro custa caro.


quarta-feira, 21 de janeiro de 2026

🍔💾 Essential z/OS Performance Tuning Workshop

 

Bellacosa Mainframe e o grande desafio de tunar um mainframe Zos com software legado

🍔💾 Essential z/OS Performance Tuning Workshop

Quando performance deixa de ser fé e vira engenharia

No mundo distribuído, performance costuma ser tratada como magia:
“sobe mais recurso”, “escala automático”, “reinicia o serviço”.

No mainframe, isso nunca existiu.

Aqui, performance sempre foi disciplina, observação e responsabilidade.
E é exatamente isso que o Essential z/OS Performance Tuning Workshop carrega no DNA.

Não é um curso para “deixar tudo rápido”.
É um treinamento para não fazer besteira em produção.


🧠 Um workshop que nasceu da dor (e do custo de CPU)

Quando o z/OS ainda se chamava MVS, cada ciclo de CPU custava dinheiro real.
Não existia elasticidade, nem desculpa técnica.

Se o sistema ficava lento, alguém tinha que explicar:

  • por quê

  • onde

  • quem causou

  • como evitar de novo

O Essential z/OS Performance Tuning Workshop surge dessa escola:
a escola em que medir vem antes de mexer, e mexer sem entender é pecado mortal.


🎯 O que o workshop realmente ensina (sem PowerPoint bonito)

👉 Performance não é velocidade

Performance é cumprir SLA de forma previsível.

O workshop deixa isso claro logo cedo:

  • CPU a 90% não é problema, se o response time está estável

  • Sistema “folgado” pode estar mal configurado

  • Pico não é tendência

Aqui, aprende-se a ler o sistema como um organismo, não como um gráfico isolado.


⚙️ Os pilares do workshop (onde a verdade mora)

🧩 WLM – Workload Manager

O verdadeiro cérebro do z/OS.

No workshop, cai a ficha:

WLM não é tuning técnico. É política de negócio codificada.

  • Service Class errada = prioridade errada

  • Prioridade errada = usuário certo reclamando

  • Ajuste sem alinhamento = guerra interna

📌 Easter egg clássico:
O WLM sempre faz exatamente o que você mandou.
O problema é quando você mandou errado.


📊 RMF – onde a mentira não sobrevive

RMF é tratado como deve ser:

  • Monitor III → o agora

  • Monitor II → o culpado

  • Postprocessor → a história que não pode ser reescrita

O workshop ensina algo raro hoje em dia:

Contexto importa mais que screenshot.

Um gráfico sem horário, workload e mudança recente é só arte abstrata.


🗃️ SMF – a caixa-preta do sistema

Aqui o tuning vira investigação.

SMF:

  • Não opina

  • Não sugere

  • Não perdoa

Quem aprende a ler SMF sai do workshop com um superpoder:
parar discussões baseadas em achismo.


⚠️ Desafios reais abordados (aqueles que ninguém gosta de admitir)

🔥 “Todo mundo é crítico”

Ambiente compartilhado, dezenas de sistemas, todos “prioridade máxima”.

O workshop ensina a separar:

  • workload crítico

  • workload importante

  • workload barulhento

💡 Easter egg corporativo:
O sistema mais crítico quase nunca é o que mais grita.


🔥 Falta de baseline

Sem baseline:

  • não existe “piorou”

  • só existe “sensação”

Frase implícita do workshop:

Tuning sem baseline é tuning religioso.


🔥 A pressão do “só ajusta rapidinho”

Nada gera mais legado tóxico do que tuning feito:

  • em incidente

  • sem análise

  • para agradar gestor

O workshop ensina algo valioso:

Saber dizer NÃO, com métrica na mão.


🚀 O que muda depois do workshop

Quem passa por esse treinamento:

  • Para de tunar por instinto

  • Começa a observar antes de agir

  • Aprende a prever gargalos

  • Ganha respeito em incidente sério

No mercado, isso tem um efeito curioso:

Profissional que entende performance em z/OS não fica sem emprego.
Fica sem tempo.


🕹️ Easter eggs nível CPD

  • CPU alta pode ser sinal de sistema saudável

  • O melhor tuning, às vezes, é não mexer

  • Se o sistema só é lento em horário comercial, o problema raramente é técnico

  • Performance tuning é 70% política e 30% tecnologia


🧠 Conclusão – a frase que devia estar na parede do CPD

“z/OS não é lento.
Lento é quem não entende o que está medindo.”

O Essential z/OS Performance Tuning Workshop não ensina truques.
Ensina responsabilidade técnica.

E isso, em qualquer geração de tecnologia, continua raro.


quarta-feira, 25 de julho de 2018

🔥 From Monitoring to Meaningful Engagement — IBM Storage Insights explicado para quem já confiou em RMF e I/O trace

 


🔥 From Monitoring to Meaningful Engagement — IBM Storage Insights explicado para quem já confiou em RMF e I/O trace


Conhecimento básico sobre aplicações distribuídas para um público mainframer




☕ 00:47 — Antes de existir “Storage Insights”, já existia DD DISP=SHR

Todo mainframer raiz sabe:
armazenamento nunca foi só disco. Sempre foi:

  • gargalo oculto

  • causa raiz disfarçada

  • vilão injustiçado

Em 2025, o que a IBM fez com o Storage Insights não foi criar algo novo — foi traduzir décadas de mentalidade mainframe para o mundo híbrido e distribuído.


🧬 Um pouco de história (ou: nada disso é realmente novo)

No z/OS, você sempre teve:

  • RMF para performance

  • SMF para evidência

  • I/O trace para verdade inconveniente

  • Capacity Planning como arte marcial

O que mudou em 2025 foi a embalagem e o alcance:

Storage Insights deixou de ser “monitor”
e virou plataforma de engajamento operacional.

📌 Comentário Bellacosa:
O distribuído está finalmente reaprendendo o que o mainframe nunca esqueceu.


🔍 O que realmente mudou (traduzido para mainframês)

🔹 De Monitoring → Actionable Intelligence

Antes (clássico):

  • Alertas

  • Dashboards

  • “CPU alta”, “latência subiu”

Agora (2025):

  • Tendência

  • Previsão

  • Recomendação contextual

🧠 Analogia direta:
RMF + histórico + operador experiente… automatizado.


🔹 De Operação Reativa → Engajamento Colaborativo

O Storage Insights virou:

  • ponto de encontro

  • linguagem comum

  • ponte entre cliente, parceiro e IBM

📌 Tradução mainframe:
Como se o suporte já chegasse com o dump analisado.

😈 Easter egg:
No mainframe isso sempre se chamou “time que sabe o que está fazendo”.


🔹 De Visibilidade → Empoderamento

Não é mais “olhar gráfico”.
É:

  • entender impacto

  • simular decisão

  • agir antes do incidente

🔥 Comentário ácido:
Dashboard bonito nunca salvou produção. Contexto sim.


📈 O quadro geral (ou: por que isso importa)

Em arquiteturas distribuídas:

  • storage não é periférico

  • storage define comportamento

O Storage Insights 2025 passa a ser:

  • tecido de engajamento

  • fonte de inteligência operacional

  • base para automação real

📌 Bellacosa style:
Observabilidade sem ação é voyeurismo técnico.


🧠 Comparação honesta: Mainframe x Storage Insights

Conceito clássicoStorage Insights
RMF históricoTrend analysis
SMF evidênciaTelemetria contínua
Capacity planningPredictive analytics
Operador experienteAI recommendations
War roomPlataforma colaborativa

😈 Easter egg:
Chamaram de “AI”. Você chamava de “cara que conhece o sistema”.


🛠️ Passo a passo mental para o mainframer entender

1️⃣ Pare de pensar em “ferramenta”
2️⃣ Pense em governança operacional
3️⃣ Leia tendências, não alertas
4️⃣ Correlacione storage com aplicação
5️⃣ Use recomendação como hipótese, não dogma

🔥 Regra de ouro:
Quem decide continua sendo humano. A diferença é que agora ele decide melhor informado.


📚 Guia de estudo recomendado

Conceitos-chave

  • Observabilidade

  • Telemetria

  • Capacity planning distribuído

  • Hybrid cloud

  • AIOps

Exercício Bellacosa

👉 Pegue um pico de latência
👉 Veja a tendência histórica
👉 Relacione com workload
👉 Compare com decisão reativa antiga

Resultado? Menos susto. Mais controle.


🎯 Aplicações reais no mundo corporativo

  • Redução de incidentes

  • Planejamento de crescimento

  • Integração mainframe + cloud

  • SRE corporativo

  • Base para storage autônomo


🖤 Epílogo — 03:12 da manhã, tudo estável

O Storage Insights 2025 não é revolução.
É evolução com memória.

El Jefe Midnight Lunch conclui:
“O futuro do storage não é autônomo. É bem governado.”