| Bellacosa Mainframe do jcl ao json laboratorio pratico |
🧪 LABORATÓRIO — DO JCL AO JSON
🐍 Missão: Dominar dados reais com Python
👉 Formato: desafios práticos
👉 Nível: iniciante → intermediário
👉 Ideal para 1–2 dias de hands-on
👉 Pode virar curso ou workshop
🔹 BLOCO 1 — Arquivos (I/O)
🧩 Desafio 1 — Leitor de arquivo sequencial
Crie um programa que:
-
Leia
clientes.txt - Mostre número total de linhas
- Mostre a primeira e última linha
💡 Analog: processamento sequencial COBOL
🧩 Desafio 2 — Contador de registros válidos
Arquivo contém linhas vazias e comentários iniciados por #.
Conte apenas registros válidos.
🧩 Desafio 3 — Gerador de arquivo batch
Crie um arquivo relatorio.txt contendo:
- Data/hora atual
- Total de registros processados
- Status “OK”
🧩 Desafio 4 — Conversor TXT → CSV
Entrada:
123;Ana;1200
456;João;950
Produza um CSV com cabeçalho.
🧩 Desafio 5 — Copiador com filtro
Copie transacoes.txt para aprovadas.txt
apenas registros com valor > 1000.
🔹 BLOCO 2 — Pandas (Dados tabulares)
🧩 Desafio 6 — Carregar dataset
Use Pandas para:
- Ler um CSV
- Mostrar as 5 primeiras linhas
- Mostrar número de registros
🧩 Desafio 7 — Filtro de negócios
Mostre apenas clientes com saldo > 1000.
Ordene por saldo decrescente.
🧩 Desafio 8 — Estatísticas rápidas
Calcule:
- Média do saldo
- Máximo
- Mínimo
- Total
🧩 Desafio 9 — Agrupamento
Agrupe clientes por cidade e conte quantos há em cada uma.
💡 Similar a GROUP BY
🧩 Desafio 10 — Pipeline batch moderno
Leia um CSV → filtre → salve novo CSV com resultados.
🔹 BLOCO 3 — NumPy (Processamento numérico)
🧩 Desafio 11 — Operações vetoriais
Crie dois arrays e calcule:
- Soma elemento a elemento
- Produto elemento a elemento
- Produto escalar
🧩 Desafio 12 — Matriz de desempenho
Simule vendas por região:
- Matriz 3×4
- Calcule totais por linha e coluna
🔹 BLOCO 4 — APIs (Integração moderna)
🧩 Desafio 13 — Consumidor de API
Use uma API pública (ex.: cotação de moedas).
Exiba:
- Valor atual
- Data/hora
- Fonte
💡 Biblioteca: requests
🧩 Desafio 14 — API → DataFrame
Obtenha dados JSON de uma API e:
- Converta para Pandas
- Mostre estatísticas
- Salve em CSV
🔹 BLOCO 5 — Web Scraping
🧩 Desafio 15 — Minerador de dados web
Extraia dados de uma página pública:
- Títulos de notícias OU
- Tabela da Wikipedia
Salve em arquivo estruturado.
💡 Bibliotecas:
requests
BeautifulSoup
pandas.read_html()
🏆 DESAFIO EXTRA (Modo Arquitetura)
🔥 Mega-missão — Pipeline completo
Construa um fluxo:
👉 Coletar dados de API
👉 Complementar com dados de arquivo local
👉 Processar com Pandas
👉 Salvar resultado final
💥 Isso simula um ETL moderno.
🎯 O que você dominará ao concluir
✔ Manipulação de arquivos
✔ Processamento tabular
✔ Computação numérica
✔ Integração com sistemas externos
✔ Coleta de dados da web
✔ Data pipelines
✔ Base para Data Science
Sem comentários:
Enviar um comentário