Absortio

Email → Summary → Bookmark → Email

GitHub - tara-vision/taracode: DevOps & Cloud AI Assistant that runs locally with Ollama for complete privacy.

Extracto

DevOps & Cloud AI Assistant that runs locally with Ollama for complete privacy. - tara-vision/taracode

Resumen

Resumen Principal

taracode se presenta como un asistente de IA experto diseñado para optimizar las operaciones de DevOps y la gestión de la nube, ofreciendo guía especializada en Kubernetes, Terraform, Docker y despliegues multi-nube. Su propuesta de valor central reside en su compromiso con la privacidad total, al ejecutarse completamente en local con Ollama, asegurando que los datos sensibles del proyecto nunca abandonen la máquina del usuario y eliminando la necesidad de cuentas. Este asistente potencia a los equipos con un sofisticado sistema multi-agente compuesto por 7 especialistas, más de 58 herramientas integradas y capacidades autónomas, desde la planificación de tareas complejas hasta el monitoreo proactivo de pantallas y la gestión de memoria de proyectos. Su diseño de código abierto y la facilidad de instalación lo posicionan como una solución robusta y accesible para la automatización y mejora de flujos de trabajo en entornos de desarrollo y operaciones.

Elementos Clave

  • Privacidad Total y Ejecución Local: taracode se distingue fundamentalmente por su arquitectura privacy-first, que permite que se ejecute completamente en local utilizando Ollama. Esto garantiza que los datos sensibles del usuario nunca salgan de su máquina, eliminando preocupaciones sobre la exposición de información y la necesidad de una cuenta o registro, lo que es crucial para entornos corporativos y de seguridad estricta.
  • Sistema Multi-Agente Avanzado: El asistente incorpora un sistema de 7 agentes especializados que colaboran para abordar tareas complejas de DevOps y seguridad. Agentes como Planner, Coder, Tester, Reviewer, DevOps, Security y Diagnostics trabajan conjuntamente, permitiendo desde la descomposición y planificación de tareas hasta la generación de código, pruebas, revisiones, operaciones de infraestructura, escaneo de seguridad y análisis de causa raíz.
  • Capacidades Autónomas y Monitoreo Proactivo: Ofrece una potente ejecución autónoma de tareas multi-paso a través del comando /task, que permite planificar y ejecutar flujos de trabajo complejos con puntos de control. Además, la función de monitoreo de pantalla (/watch) dota a la IA de la capacidad de observar y analizar la interfaz gráfica del usuario, detectando errores y anomalías en tiempo real antes de que se conviertan en problemas.
  • Amplia Integración de Herramientas y Modo Seguridad DevSecOps: El sistema viene precargado con 58 herramientas integradas específicas para DevOps, abarcando comandos clave para Kubernetes (kubectl, helm), Terraform, Docker y CLIs de nubes como AWS, Azure y GCP. Se complementa con un Modo Seguridad dedicado (/mode security) que activa capacidades completas de DevSecOps, incluyendo escaneo de vulnerabilidades (trivy), detección de secretos (gitleaks) y auditorías de seguridad (SAST, tfsec, kubesec).

Análisis e Implicaciones

La integración de inteligencia artificial directamente en las herramientas de desarrollo y operaciones, con un enfoque en la privacidad, tiene el potencial de transformar radicalmente la productividad y la resiliencia operativa. Al automat

Contenido

taracode

DevOps & Cloud AI Assistant
Expert guidance for Kubernetes, Terraform, Docker, and multi-cloud deployments.
Runs locally with Ollama for complete privacy.

Release License: MIT Go Report Card Go Version

Stars Forks Issues

Quick Start Features Commands Documentation Contributing


Why taracode?

  • DevOps Expertise - Specialized in Kubernetes, Terraform, Docker, CI/CD, and cloud platforms
  • 58 Built-in Tools - DevOps, security scanning, file operations, git, web search
  • Multi-Agent System - 7 specialized agents for complex tasks
  • Privacy-first - Runs fully local with Ollama, your data never leaves your machine
  • No Account Required - Open source, just install and use

Quick Start

1. Install Ollama

# macOS / Linux
brew install ollama

# Or download from https://ollama.ai

2. Pull a Model

ollama pull gemma3:27b    # Recommended (16GB+ RAM)
ollama pull gemma3:12b    # For limited hardware

3. Install taracode

Quick install (recommended):

curl -fsSL https://code.tara.vision/install.sh | bash

Homebrew (macOS / Linux):

brew install tara-vision/tap/taracode

Go install:

go install github.com/tara-vision/taracode@latest

Manual download:

Download binaries from GitHub Releases

4. Run

cd your-project
taracode
> /init    # Initialize project features

That's it! Start asking questions about your infrastructure.

Features

Screen Monitoring (/watch)

Let the AI watch your screen and catch errors before you do:

> /watch this          # Capture and analyze all screens now
> /watch start         # Start continuous monitoring
> /watch stop          # Stop monitoring

Multi-Agent System

7 specialized agents work together on complex tasks:

Agent Specialty
Planner Task decomposition and dependency analysis
Coder Code generation and editing
Tester Test execution and output analysis
Reviewer Code review and quality checks
DevOps Infrastructure and deployment operations
Security Security scanning and vulnerability analysis
Diagnostics Failure analysis and root cause detection
> /agent list          # List all agents
> /agent use security  # Route next prompt to specific agent

Autonomous Task Execution (/task)

Plan and execute multi-step tasks with checkpoints:

> /task "Add authentication to the API"
> /task "Deploy to production with blue-green strategy"
> /task templates      # List built-in templates

Project Memory

Remember project-specific knowledge across sessions:

> /remember We use PostgreSQL for production databases
> /remember Always run tests before pushing #workflow
> /memory search database

DevOps Tools

Category Tools
Kubernetes kubectl get/apply/delete/describe/logs/exec, helm list/install
Terraform init, plan, apply, destroy, output, state
Docker build, ps, logs, compose, exec
AWS aws cli, ecs, eks operations
Azure az cli, aks operations
GCP gcloud cli, gke operations
Security trivy, gitleaks, SAST, tfsec, kubesec, dependency audit

Security Mode

Full DevSecOps capabilities with audit logging:

> /mode security       # Switch to security mode

# Security scanning
> Scan this image for vulnerabilities: nginx:latest
> Check for secrets in the current directory
> Run a SAST scan on the codebase

Commands

Command Description
/init Initialize project
/mode Switch mode (devops, security)
/model Switch between models
/task Execute multi-step tasks
/agent Manage specialized agents
/watch Screen monitoring
/memory Project memory management
/permissions Tool permission controls
/audit Security audit log
/history File operation history
/undo Undo file modifications
/diff Show session changes
/tools List available tools
/upgrade Check for and install updates
/hosts Multi-host status (v2.0)
/help Show help

Configuration

Create ~/.taracode/config.yaml:

# Single Host (simple setup)
host: http://localhost:11434
model: gemma3:27b

# Multi-Host Setup (v2.0) - for multiple Ollama servers
hosts:
  primary:
    url: http://ollama.tara.lab
    models: [gemma3:27b, qwen2.5-coder:32b]
    priority: 1
  local:
    url: http://localhost:11434
    fallback: primary      # Use primary if local is down
    priority: 2
default_host: primary

# Search
search:
  primary: duckduckgo
  fallback: searxng
  brave_api_key: ""    # Optional: Brave Search API

# Memory
memory:
  enabled: true
  auto_capture: true

# Per-agent host assignment
agents:
  coder:
    host: primary
    model: qwen2.5-coder:32b
  reviewer:
    host: local
    model: llama3.2:3b

See config.example.yaml for all options.

Supported LLM Backends

Backend Setup Notes
Ollama brew install ollama Recommended, easiest setup
vLLM Self-hosted For production deployments
llama.cpp Self-hosted Lightweight option

Development

make deps      # Install dependencies
make build     # Build binary
make test      # Run tests
make install   # Install to /usr/local/bin

See CONTRIBUTING.md for development guidelines.

Contributing

Contributions are welcome! Please read our Contributing Guide and Code of Conduct.

Security

For security issues, please see our Security Policy.

License

MIT License - see LICENSE for details.


Built with ❤️ by Tara Vision · Created by Dejan Stefanoski

Fuente: GitHub