move variables to config/settings

This commit is contained in:
Niklas Müller 2024-06-23 19:24:03 +02:00
parent 89ec0476ca
commit 889816a9a5
3 changed files with 24 additions and 22 deletions

View file

@ -13,11 +13,11 @@ from connector.llm.utils.helpers import (
preprocess_llama_chat_into_query_instruction,
extract_first_query_dict,
)
# from connector.llm.utils.prompts import GenerativeQAPrompt, GenerativeQAPromptDE
from connector.llm.utils.base_llm import BaseLLM
from connector.llm.utils.base_prompts import BaseChatPrompts, BaseGenerativePrompts
from common_packages import logging
from core.config import settings
# instantiate logger
logger = logging.create_logger(
@ -25,19 +25,14 @@ logger = logging.create_logger(
logger_name=__name__,
)
# Message:
# [{"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello! What are some good questions to ask you?"}, {"role": "assistant", "content": "Hello! I am here to help you with any information or guidance you need."}, {"role": "user", "content": "Ok, can you list me the capital cities of all european countries?"}]
class OllamaLLM(BaseLLM):
def __init__(self, language):
# client.api_key = os.getenv("LLM_API_KEY")
self.api_key = os.getenv("LLM_API_KEY")
self.base_url = os.getenv("LLM_API_ENDPOINT")
self.api_key = settings.LLM_API_KEY
self.base_url = settings.LLM_API_ENDPOINT
self.modelname = "llama3"
# self.modelname = "mistral"
self.modelname = settings.LLM_MODEL_NAME
self.max_num_tokens = 1850
self.language = language
@ -217,12 +212,11 @@ class GenerativeQAPromptDE(BaseGenerativePrompts):
class GenerativeChatPromptDE(BaseChatPrompts):
llm_purpose = """
Du bist ein hilfreicher Assistent, der entwickelt wurde um Fragen auf der Grundlage einer vom Benutzer bereitgestellten Wissensbasis zu beantworten.
Integriere zusätzliche Einblicke oder Perspektiven, die das Verständnis des Lesers verbessern können.
Verwende den bereitgestellten Kontext, um die Frage zu beantworten, und erläutere so ausführlich wie möglich, warum Du glaubst, dass diese Antwort korrekt ist.
Verwende nur diejenigen Dokumente, die die Frage beantworten können.
Du bist ein hilfreicher Assistent, der Fragen auf der Grundlage einer vom Benutzer bereitgestellten Wissensbasis beantwortet.
Verwende den bereitgestellten Kontext, um die Frage zu beantworten, und erläutere kurz und prägnant, warum Du glaubst, dass diese Antwort korrekt ist.
Verwende nur die Dokumente, die die Frage beantworten können.
Formuliere deine Antwort immer in deutscher Sprache.
Beantworte keine Fragen die nicht zum gegeben Kontext sich beziehen!
Beantworte keine Fragen die sich nicht zum gegeben Kontext beziehen!
"""
context_command = """

View file

@ -6,9 +6,16 @@ import os
class Settings:
API_V1_STR: str = "/api"
# OS_INTERFACE: str = ""
# Object Storage
BUCKET: str = os.getenv("BUCKET_NAME")
BUCKET_FILE_PATH: str = os.getenv("BUCKET_FILE_PATH")
# LLM
LLM_OPTION: str = os.getenv("LLM_OPTION")
LLM_API_ENDPOINT: str = os.getenv("LLM_API_ENDPOINT")
LLM_API_KEY: str = os.getenv("LLM_API_KEY")
LLM_MODEL_NAME: str = os.getenv("LLM_MODEL_NAME")
LLM_LANGUAGE: str = os.getenv("LLM_LANGUAGE")
settings = Settings()

View file

@ -3,7 +3,7 @@
import json
from fastapi import APIRouter, Response
from endpoints.llm import LLM
import os
from core.config import settings
router = APIRouter()
@ -16,13 +16,14 @@ def get_configs():
"llm": {
'language': LLM.language,
'max_num_tokens': LLM.max_num_tokens,
'modelname': LLM.modelname
'modelname': settings.LLM_MODEL_NAME
},
'env_vars': {
'language': os.getenv('LLM_LANGUAGE'),
'llm_option': os.getenv('LLM_OPTION'),
'bucket_name': os.getenv('BUCKET_NAME'),
'language': settings.LLM_LANGUAGE,
'llm_option': settings.LLM_OPTION,
'llm_endpoint': settings.LLM_API_ENDPOINT,
'bucket_name': settings.BUCKET,
}
}
return Response(status_code=200, content=json.dumps(backend_configs))
return Response(status_code=200, content=json.dumps(backend_configs), media_type="application/json")