SLM Local
SLM LocalFine-tuning toolkit

Seu modelo de linguagem, treinado do zero

Wizard de 10 passos que coleta dados da web, gera dataset de treinamento e faz fine-tuning LoRA no Colab. No final, um modelo GGUF roda na sua maquina.

SLM Local - Configuracoes
O que faz

Cada etapa do fine-tuning, automatizada

Scraping

40 user agents, rate limiting por dominio, fallback Playwright

Preprocessing

GPT-4o-mini transforma texto bruto em pares instrucao/resposta

Treinamento LoRA

Google Colab T4 gratuito ou GPU local. Automacao completa, zero intervencao manual

Export GGUF

Conversao e quantizacao automatica. Roda via llama.cpp

Hyperparams

GPT-5.1 otimiza lora_r, batch size, learning rate pro seu hardware

Custos

Painel em tempo real de cada chamada OpenAI

Interface

10 passos, uma interface

Configuracoes
ConfiguracoesAPI keys, hardware e credenciais do wizard
Selecao de modelo
Selecao de modeloGPT-5.1 recomenda modelos para seu hardware
Chat de tema
Chat de temaDefine o escopo do modelo via conversa
Preprocessing
PreprocessingGera pares instrucao/resposta com IA
Dashboard
DashboardModelo pronto, roda local
Workflow

Do zero ao modelo rodando

01

Configura

API keys, hardware detection, escolha do modelo base

02

Coleta

Tema via chat, scraping inteligente, dados da web

03

Treina

Preprocessing, hiperparametros otimizados, LoRA no Colab

04

Roda

Modelo GGUF quantizado, llama.cpp local

Quick start

3 comandos pra rodar

Clone, configure a API key da OpenAI e rode. O wizard guia o resto.

terminal
# 1. Clone e instale
$ git clone git@github.com:Appa019/Modelo_SLM_Local.git
$ cd Modelo_SLM_Local && python -m venv .venv
$ pip install -r backend/requirements.txt
# 2. Configure e rode
$ cp .env.example .env # adicione sua OPENAI_API_KEY
$ cd backend && uvicorn main:app --reload &
$ cd frontend && npm run dev
VITE v6.x ready in 380ms
> Local: http://localhost:5173/