Interface web para cadastro e consulta automatizada de modelos LLM em endpoints configuráveis.
- Gerenciamento de Endpoints: Cadastre múltiplos endpoints (Ollama, OpenAI-compatible, Custom)
- Busca de Modelos: Consulta automática de modelos disponíveis em cada endpoint
- Filtros Inteligentes: Busca por nome, tipo (Instruct, Vision, Coder, etc.)
- Cache Local: Armazena configurações e cache de modelos no navegador
- Export/Import: Backup e restauração de configurações
Sem restrições CORS - funciona com qualquer API remota.
- Abra
chrome://extensions - Ative "Modo do desenvolvedor"
- Clique "Carregar sem compactação"
- Selecione a pasta
extension/
Para usar o arquivo HTML diretamente com APIs remotas:
# Inicie o proxy local
node local-proxy.js 3333
# Abra index.html no navegador
# Em Config, configure o proxy: http://localhost:3333/?url=- Funciona diretamente para endpoints locais (localhost, 127.0.0.1)
- Para endpoints remotos, configure um proxy ou use a extensão
| Tipo | Path | Exemplo |
|---|---|---|
| OpenAI Compatible | /v1/models |
LM Studio, vLLM, OpenRouter |
| Ollama | /api/tags |
Ollama local, ollama.com |
| Custom | Configurável | Qualquer API de modelos |
-
Adicionar Endpoint:
- Vá na aba "Endpoints"
- Preencha nome, URL e tipo
- API Key opcional para endpoints autenticados
-
Buscar Modelos:
- Clique "Testar" para verificar conectividade
- Clique "Buscar Modelos" para listar modelos disponíveis
-
Visualizar Modelos:
- Aba "Modelos" mostra todos os modelos encontrados
- Use filtros e busca para encontrar modelos específicos
- Clique "Copy" para copiar o nome do modelo
fz-dash-models/
├── index.html # Aplicação principal (standalone)
├── example.html # Versão simplificada
├── extension/ # Extensão Chrome
│ ├── manifest.json
│ ├── popup.html
│ └── icon*.png
├── local-proxy.js # Proxy CORS local (Node.js)
└── cors-proxy-worker.js # Template Worker Cloudflare
# Servidor local para desenvolvimento
python3 -m http.server 8080
# Ou com Node.js
npx serve .MIT