kenken999's picture
create duck db
886d8e9
|
raw
history blame
15.5 kB

● Intérprete Abierto

Discord EN doc JA doc ZH doc IN doc License


Obtenga acceso temprano a la aplicación de escritorio‎ ‎ |‎ ‎ Documentación


poster


La Nueva Actualización del Computador presenta --os y una nueva API de Computadora. Lea más →


pip install open-interpreter

¿No funciona? Lea nuestra guía de configuración.

interpreter

Intérprete Abierto permite a los LLMs ejecutar código (Python, JavaScript, Shell, etc.) localmente. Puede chatear con Intérprete Abierto a través de una interfaz de chat como ChatGPT en su terminal después de instalar.

Esto proporciona una interfaz de lenguaje natural para las capacidades generales de su computadora:

  • Crear y editar fotos, videos, PDF, etc.
  • Controlar un navegador de Chrome para realizar investigaciones
  • Graficar, limpiar y analizar conjuntos de datos grandes
  • ... etc.

⚠️ Nota: Se le pedirá que apruebe el código antes de ejecutarlo.


Demo

https://github.com/KillianLucas/open-interpreter/assets/63927363/37152071-680d-4423-9af3-64836a6f7b60

También hay disponible una demo interactiva en Google Colab:

Open In Colab

Además, hay un ejemplo de interfaz de voz inspirada en Her:

Open In Colab

Inicio Rápido

pip install open-interpreter

Terminal

Después de la instalación, simplemente ejecute interpreter:

interpreter

Python

from interpreter import interpreter

interpreter.chat("Plot AAPL and META's normalized stock prices") # Ejecuta un comando sencillo
interpreter.chat() # Inicia una sesión de chat interactiva

GitHub Codespaces

Presione la tecla , en la página de GitHub de este repositorio para crear un espacio de códigos. Después de un momento, recibirá un entorno de máquina virtual en la nube con Interprete Abierto pre-instalado. Puede entonces empezar a interactuar con él directamente y confirmar su ejecución de comandos del sistema sin preocuparse por dañar el sistema.

Comparación con el Intérprete de Código de ChatGPT

El lanzamiento de Intérprete de Código de OpenAI con GPT-4 presenta una oportunidad fantástica para realizar tareas del mundo real con ChatGPT.

Sin embargo, el servicio de OpenAI está alojado, su codigo es cerrado y está fuertemente restringido:

  • No hay acceso a Internet.
  • Conjunto limitado de paquetes preinstalados.
  • Límite de 100 MB de carga, límite de tiempo de 120.0 segundos.
  • El estado se elimina (junto con cualquier archivo generado o enlace) cuando el entorno se cierra.

Intérprete Abierto supera estas limitaciones al ejecutarse en su entorno local. Tiene acceso completo a Internet, no está restringido por tiempo o tamaño de archivo y puede utilizar cualquier paquete o libreria.

Esto combina el poder del Intérprete de Código de GPT-4 con la flexibilidad de su entorno de desarrollo local.

Comandos

Actualización: La Actualización del Generador (0.1.5) introdujo streaming:

message = "¿Qué sistema operativo estamos utilizando?"

for chunk in interpreter.chat(message, display=False, stream=True):
    print(chunk)

Chat Interactivo

Para iniciar una sesión de chat interactiva en su terminal, puede ejecutar interpreter desde la línea de comandos:

interpreter

O interpreter.chat() desde un archivo .py:

interpreter.chat()

Puede también transmitir cada trozo:

message = "¿Qué sistema operativo estamos utilizando?"

for chunk in interpreter.chat(message, display=False, stream=True):
    print(chunk)

Chat Programático

Para un control más preciso, puede pasar mensajes directamente a .chat(message):

interpreter.chat("Añade subtítulos a todos los videos en /videos.")

# ... Transmite salida a su terminal, completa tarea ...

interpreter.chat("Estos se ven bien, pero ¿pueden hacer los subtítulos más grandes?")

# ...

Iniciar un nuevo chat

En Python, Intérprete Abierto recuerda el historial de conversación. Si desea empezar de nuevo, puede resetearlo:

interpreter.messages = []

Guardar y Restaurar Chats

interpreter.chat() devuelve una lista de mensajes, que puede utilizar para reanudar una conversación con interpreter.messages = messages:

messages = interpreter.chat("Mi nombre es Killian.") # Guarda mensajes en 'messages'
interpreter.messages = [] # Resetear Intérprete ("Killian" será olvidado)

interpreter.messages = messages # Reanuda chat desde 'messages' ("Killian" será recordado)

Personalizar el Mensaje del Sistema

Puede inspeccionar y configurar el mensaje del sistema de Intérprete Abierto para extender su funcionalidad, modificar permisos o darle más contexto.

interpreter.system_message += """
Ejecute comandos de shell con -y para que el usuario no tenga que confirmarlos.
"""
print(interpreter.system_message)

Cambiar el Modelo de Lenguaje

Intérprete Abierto utiliza LiteLLM para conectarse a modelos de lenguaje hospedados.

Puede cambiar el modelo estableciendo el parámetro de modelo:

interpreter --model gpt-3.5-turbo
interpreter --model claude-2
interpreter --model command-nightly

En Python, establezca el modelo en el objeto:

interpreter.llm.model = "gpt-3.5-turbo"

Encuentre la cadena adecuada para su modelo de lenguaje aquí.

Ejecutar Intérprete Abierto localmente

Terminal

Intérprete Abierto puede utilizar un servidor de OpenAI compatible para ejecutar modelos localmente. (LM Studio, jan.ai, ollama, etc.)

Simplemente ejecute interpreter con la URL de base de API de su servidor de inferencia (por defecto, http://localhost:1234/v1 para LM Studio):

interpreter --api_base "http://localhost:1234/v1" --api_key "fake_key"

O puede utilizar Llamafile sin instalar software adicional simplemente ejecutando:

interpreter --local

Para una guía mas detallada, consulte este video de Mike Bird

Cómo ejecutar LM Studio en segundo plano.

  1. Descargue https://lmstudio.ai/ luego ejecutelo.
  2. Seleccione un modelo, luego haga clic ↓ Descargar.
  3. Haga clic en el botón ↔️ en la izquierda (debajo de 💬).
  4. Seleccione su modelo en la parte superior, luego haga clic Iniciar Servidor.

Una vez que el servidor esté funcionando, puede empezar su conversación con Intérprete Abierto.

Nota: El modo local establece su context_window en 3000 y su max_tokens en 1000. Si su modelo tiene requisitos diferentes, ajuste estos parámetros manualmente (ver a continuación).

Python

Nuestro paquete de Python le da más control sobre cada ajuste. Para replicar y conectarse a LM Studio, utilice estos ajustes:

from interpreter import interpreter

interpreter.offline = True # Desactiva las características en línea como Procedimientos Abiertos
interpreter.llm.model = "openai/x" # Indica a OI que envíe mensajes en el formato de OpenAI
interpreter.llm.api_key = "fake_key" # LiteLLM, que utilizamos para hablar con LM Studio, requiere esto
interpreter.llm.api_base = "http://localhost:1234/v1" # Apunta esto a cualquier servidor compatible con OpenAI

interpreter.chat()

Ventana de Contexto, Tokens Máximos

Puede modificar los max_tokens y context_window (en tokens) de los modelos locales.

Para el modo local, ventanas de contexto más cortas utilizarán menos RAM, así que recomendamos intentar una ventana mucho más corta (~1000) si falla o si es lenta. Asegúrese de que max_tokens sea menor que context_window.

interpreter --local --max_tokens 1000 --context_window 3000

Modo Detallado

Para ayudarle a inspeccionar Intérprete Abierto, tenemos un modo --verbose para depuración.

Puede activar el modo detallado utilizando el parámetro (interpreter --verbose), o en plena sesión:

$ interpreter
...
> %verbose true <- Activa el modo detallado

> %verbose false <- Desactiva el modo verbose

Comandos de Modo Interactivo

En el modo interactivo, puede utilizar los siguientes comandos para mejorar su experiencia. Aquí hay una lista de comandos disponibles:

Comandos Disponibles:

  • %verbose [true/false]: Activa o desactiva el modo detallado. Sin parámetros o con true entra en modo detallado. Con false sale del modo verbose.
  • %reset: Reinicia la sesión actual de conversación.
  • %undo: Elimina el mensaje de usuario previo y la respuesta del AI del historial de mensajes.
  • %tokens [prompt]: (Experimental) Calcula los tokens que se enviarán con el próximo prompt como contexto y estima su costo. Opcionalmente, calcule los tokens y el costo estimado de un prompt si se proporciona. Depende de LiteLLM's cost_per_token() method para costos estimados.
  • %help: Muestra el mensaje de ayuda.

Configuración / Perfiles

Intérprete Abierto permite establecer comportamientos predeterminados utilizando archivos yaml.

Esto proporciona una forma flexible de configurar el intérprete sin cambiar los argumentos de línea de comandos cada vez.

Ejecutar el siguiente comando para abrir el directorio de perfiles:

interpreter --profiles

Puede agregar archivos yaml allí. El perfil predeterminado se llama default.yaml.

Perfiles Múltiples

Intérprete Abierto admite múltiples archivos yaml, lo que permite cambiar fácilmente entre configuraciones:

interpreter --profile my_profile.yaml

Servidor de FastAPI de ejemplo

El generador actualiza permite controlar Intérprete Abierto a través de puntos de conexión HTTP REST:

# server.py

from fastapi import FastAPI
from fastapi.responses import StreamingResponse
from interpreter import interpreter

app = FastAPI()

@app.get("/chat")
def chat_endpoint(message: str):
    def event_stream():
        for result in interpreter.chat(message, stream=True):
            yield f"data: {result}\n\n"

    return StreamingResponse(event_stream(), media_type="text/event-stream")

@app.get("/history")
def history_endpoint():
    return interpreter.messages
pip install fastapi uvicorn
uvicorn server:app --reload

Puede iniciar un servidor idéntico al anterior simplemente ejecutando interpreter.server().

Android

La guía paso a paso para instalar Intérprete Abierto en su dispositivo Android se encuentra en el repo de open-interpreter-termux.

Aviso de Seguridad

Ya que el código generado se ejecuta en su entorno local, puede interactuar con sus archivos y configuraciones del sistema, lo que puede llevar a resultados inesperados como pérdida de datos o riesgos de seguridad.

⚠️ Intérprete Abierto le pedirá que apruebe el código antes de ejecutarlo.

Puede ejecutar interpreter -y o establecer interpreter.auto_run = True para evitar esta confirmación, en cuyo caso:

  • Sea cuidadoso al solicitar comandos que modifican archivos o configuraciones del sistema.
  • Vigile Intérprete Abierto como si fuera un coche autónomo y esté preparado para terminar el proceso cerrando su terminal.
  • Considere ejecutar Intérprete Abierto en un entorno restringido como Google Colab o Replit. Estos entornos son más aislados, reduciendo los riesgos de ejecutar código arbitrario.

Hay soporte experimental para un modo seguro para ayudar a mitigar algunos riesgos.

¿Cómo Funciona?

Intérprete Abierto equipa un modelo de lenguaje de llamada a funciones con una función exec(), que acepta un lenguaje (como "Python" o "JavaScript") y código para ejecutar.

Luego, transmite los mensajes del modelo, el código y las salidas del sistema a la terminal como Markdown.

Acceso a la Documentación Offline

La documentación completa está disponible en línea sin necesidad de conexión a Internet.

Node es un requisito previo:

  • Versión 18.17.0 o cualquier versión posterior 18.x.x.
  • Versión 20.3.0 o cualquier versión posterior 20.x.x.
  • Cualquier versión a partir de 21.0.0 sin límite superior especificado.

Instale Mintlify:

npm i -g mintlify@latest

Cambia a la carpeta de documentos y ejecuta el comando apropiado:

# Suponiendo que estás en la carpeta raíz del proyecto
cd ./docs

# Ejecute el servidor de documentación
mintlify dev

Una nueva ventana del navegador debería abrirse. La documentación estará disponible en http://localhost:3000 mientras el servidor de documentación esté funcionando.

Contribuyendo

¡Gracias por su interés en contribuir! Damos la bienvenida a la implicación de la comunidad.

Por favor, consulte nuestras directrices de contribución para obtener más detalles sobre cómo involucrarse.

Roadmap

Visite nuestro roadmap para ver el futuro de Intérprete Abierto.

Nota: Este software no está afiliado con OpenAI.

thumbnail-ncu

Tener acceso a un programador junior trabajando a la velocidad de su dedos... puede hacer que los nuevos flujos de trabajo sean sencillos y eficientes, además de abrir los beneficios de la programación a nuevas audiencias.

Lanzamiento del intérprete de código de OpenAI