Uma aplicação web moderna que integra o OpenInterpreter com Ollama para fornecer um assistente IA capaz de executar código e manter conversas contextuais.
- Execução de Código em Tempo Real: Utilize o OpenInterpreter para executar e analisar código diretamente no chat
- Processamento Local: Todos os processos são executados localmente através do Ollama
- Interface Intuitiva: Design moderno e responsivo para uma experiência de usuário agradável
- Streaming de Respostas: Visualize as respostas sendo geradas em tempo real
- Suporte a Múltiplos Modelos: Compatível com diversos modelos disponíveis no Ollama
- Backend: Flask (Python)
- Frontend: HTML5, CSS3, JavaScript
- IA: OpenInterpreter, Ollama
- Estilo: Bootstrap 5
- Logging: Python logging
- Python 3.8+
- Ollama instalado e configurado
- OpenInterpreter
- Navegador web moderno
-
Clone o repositório:
git clone https://github.com/Unix-User/Automation.git cd Automation -
Instale as dependências:
pip install -r requirements.txt
-
Configure as variáveis de ambiente:
cp .env.example .env # Edite o arquivo .env com suas configurações -
Inicie o Ollama:
ollama serve
-
Execute a aplicação:
flask run
- Acesse
http://localhost:5000no seu navegador - Inicie uma nova conversa clicando em "Começar Chat"
- Digite suas mensagens e interaja com o assistente IA
- Faça um Fork do projeto
- Crie uma Branch para sua Feature (
git checkout -b feature/AmazingFeature) - Commit suas mudanças (
git commit -m 'Add some AmazingFeature') - Push para a Branch (
git push origin feature/AmazingFeature) - Abra um Pull Request
Este projeto está sob a licença MIT. Veja o arquivo LICENSE para mais detalhes.
- Weverton - Trabalho Inicial - @unix-user
- OpenInterpreter Team
- Ollama Team
- Todos os contribuidores que dedicaram tempo a este projeto