Una versión de la aplicación está desplegada y puede ser probada directamente en el navegador a través del siguiente enlace: Prueba la aplicación aquí
-
Linux
curl -fsSL https://ollama.com/install.sh | sh
-
Página para seleccionar el modelo Llama3.1
- Seleccionar versión latest de 4.7GB para las pruebas.
ollama run llama3.1:latest
- Nota: Puedes seleccionar el que quieras según necesidades y prestaciones de hardware
- Descargar y configurar el modelo
ollama pull llama3.1:latest
pip install ollama
import ollama
messages =[
{
'role' : 'user',
'content': '¿<Input del usuario>?'
},
]
response = ollama.chat(model ='llama3.1:latest', messages=messages)
print(response['message']['content'])
import ollama
messages =[
{
'role' : 'user',
'content': '¿Para qué sirve el rabo de los gatos?'
},
]
response = ollama.chat(model ='llama3.1:latest', messages=messages)
print(response['message']['content'])
import ollama
def chat_ollama():
print('Chat Llama 3.1! Escribe "salir" para finalizar la conversación.')
while True:
user_input = input('Tu: ')
if user_input.lower() == 'salir':
print('Adios!!')
break
response = ollama.generate(model='llama3.1:latest', prompt=user_input)
print("Bot: ", response['response'])
chat_ollama()