Skip to content

PabloSanchez87/llama3.1

Repository files navigation

Llama 3.1

Probar la Aplicación

Una versión de la aplicación está desplegada y puede ser probada directamente en el navegador a través del siguiente enlace: Prueba la aplicación aquí

Github - Ollama

Descarga de Ollama | Instalación.

Uso

Selección del modelo


Uso en consola.

ollama run llama3.1:latest
  • Nota: Puedes seleccionar el que quieras según necesidades y prestaciones de hardware

Terminal


Para usarlo mediante scripts de Python.

  • Descargar y configurar el modelo
ollama pull llama3.1:latest
pip install ollama

Ejemplo básico en Python

import ollama

messages =[
    {
    'role' : 'user',
    'content': '¿<Input del usuario>?'
    },
]

response = ollama.chat(model ='llama3.1:latest', messages=messages)

print(response['message']['content'])

Ejemplo de uso en streaming con Python

import ollama

messages =[
    {
    'role' : 'user',
    'content': '¿Para qué sirve el rabo de los gatos?'
    },
]

response = ollama.chat(model ='llama3.1:latest', messages=messages)

print(response['message']['content'])

Ejemplo de chat interactivo en Python

import ollama

def chat_ollama():
    print('Chat Llama 3.1! Escribe "salir" para finalizar la conversación.')
    while True:
        user_input = input('Tu: ')
        
        if user_input.lower() == 'salir':
            print('Adios!!')
            break
    
        response = ollama.generate(model='llama3.1:latest', prompt=user_input)
        print("Bot: ", response['response'])
        
chat_ollama()

Releases

No releases published

Packages

No packages published

Languages