Hey there,
I succesfully installed Chat with RTX on my computer (i9 RTX3090Ti 32GB RAM and enough disk size). It installed correctly but when I click program I got this error below:
Any suggestion to fix this ?
Environment path found: C:\Users\mehmet\AppData\Local\NVIDIA\ChatWithRTX\env_nvd_rag
App running with config
{
"models": {
"supported": [
{
"name": "Mistral 7B int4",
"installed": true,
"metadata": {
"model_path": "model\\mistral\\mistral7b_int4_engine",
"engine": "llama_float16_tp1_rank0.engine",
"tokenizer_path": "model\\mistral\\mistral7b_hf",
"max_new_tokens": 1024,
"max_input_token": 7168,
"temperature": 0.1
}
},
{
"name": "Llama 2 13B int4",
"installed": true,
"metadata": {
"model_path": "model\\llama\\llama13_int4_engine",
"engine": "llama_float16_tp1_rank0.engine",
"tokenizer_path": "model\\llama\\llama13_hf",
"max_new_tokens": 1024,
"max_input_token": 3900,
"temperature": 0.1
}
}
],
"selected": "Mistral 7B int4"
},
"sample_questions": [
{
"query": "How does NVIDIA ACE generate emotional responses?"
},
{
"query": "What is Portal prelude RTX?"
},
{
"query": "What is important about Half Life 2 RTX?"
},
{
"query": "When is the launch date for Ratchet & Clank: Rift Apart on PC?"
}
],
"dataset": {
"sources": [
"directory",
"nodataset"
],
"selected": "directory",
"path": "dataset",
"isRelative": true
},
"strings": {
"directory": "Folder Path",
"nodataset": "AI model default"
}
}
[03/25/2024-12:33:38] You try to use a model that was created with version 2.5.1, however, your version is 2.2.2. This might cause unexpected behavior or errors. In that case, try to update to the latest version.
โญโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ Traceback (most recent call last) โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฎ
โ C:\Users\mehmet\AppData\Local\NVIDIA\ChatWithRTX\RAG\trt-llm-rag-windows-main\app.py:109 in โ
โ <module> โ
โ โ
โ 106 ) โ
โ 107 โ
โ 108 # create embeddings model object โ
โ โฑ 109 embed_model = HuggingFaceEmbeddings(model_name=embedded_model) โ
โ 110 service_context = ServiceContext.from_defaults(llm=llm, embed_model=embed_model, โ
โ 111 โ โ โ โ โ โ โ โ โ โ โ context_window=model_config["max_input_to โ
โ 112 โ โ โ โ โ โ โ โ โ โ โ chunk_overlap=200) โ
โ โ
โ C:\Users\mehmet\AppData\Local\NVIDIA\ChatWithRTX\env_nvd_rag\lib\site-packages\langchain\embeddi โ
โ ngs\huggingface.py:66 in __init__ โ
โ โ
โ 63 โ โ โ โ "Please install it with `pip install sentence-transformers`." โ
โ 64 โ โ โ ) from exc โ
โ 65 โ โ โ
โ โฑ 66 โ โ self.client = sentence_transformers.SentenceTransformer( โ
โ 67 โ โ โ self.model_name, cache_folder=self.cache_folder, **self.model_kwargs โ
โ 68 โ โ ) โ
โ 69 โ
โ โ
โ C:\Users\mehmet\AppData\Local\NVIDIA\ChatWithRTX\env_nvd_rag\lib\site-packages\sentence_transfor โ
โ mers\SentenceTransformer.py:95 in __init__ โ
โ โ
โ 92 โ โ โ โ โ โ โ โ โ โ use_auth_token=use_auth_token) โ
โ 93 โ โ โ โ
โ 94 โ โ โ if os.path.exists(os.path.join(model_path, 'modules.json')): #Load as Sen โ
โ โฑ 95 โ โ โ โ modules = self._load_sbert_model(model_path) โ
โ 96 โ โ โ else: #Load with AutoModel โ
โ 97 โ โ โ โ modules = self._load_auto_model(model_path) โ
โ 98 โ
โ โ
โ C:\Users\mehmet\AppData\Local\NVIDIA\ChatWithRTX\env_nvd_rag\lib\site-packages\sentence_transfor โ
โ mers\SentenceTransformer.py:840 in _load_sbert_model โ
โ โ
โ 837 โ โ modules = OrderedDict() โ
โ 838 โ โ for module_config in modules_config: โ
โ 839 โ โ โ module_class = import_from_string(module_config['type']) โ
โ โฑ 840 โ โ โ module = module_class.load(os.path.join(model_path, module_config['path'])) โ
โ 841 โ โ โ modules[module_config['name']] = module โ
โ 842 โ โ โ
โ 843 โ โ return modules โ
โ โ
โ C:\Users\mehmet\AppData\Local\NVIDIA\ChatWithRTX\env_nvd_rag\lib\site-packages\sentence_transfor โ
โ mers\models\Pooling.py:120 in load โ
โ โ
โ 117 โ โ with open(os.path.join(input_path, 'config.json')) as fIn: โ
โ 118 โ โ โ config = json.load(fIn) โ
โ 119 โ โ โ
โ โฑ 120 โ โ return Pooling(**config) โ
โ 121 โ
โฐโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฏ
TypeError: Pooling.__init__() got an unexpected keyword argument 'pooling_mode_weightedmean_tokens'
Press any key to continue . . .