Przejdź do głównej zawartości

OpenWebUI

OpenWebUI to bogaty w funkcje i przyjazny, self-hosted interfejs AI zaprojektowany do działania całkowicie offline. Obsługuje różne metody używania LLM takie jak Ollama i OpenAI API.

Jak uruchomić

informacja

Dostępne są dwie opcje wykorzystania modeli LLM:

  • Dedykowana instancja: Wymaga wynajmu dedykowanej karty graficznej potrzebnej do uruchomienia własnego modelu przy pomocy LLama.cpp na CGC, zapewniając pełną kontrolę nad modelem
  • Współdzielona instancja: Pozwala na korzystanie z gotowych modeli dostępnych przez LLM-API CGC, co jest bardziej ekonomicznym rozwiązaniem, gdyż nie wymaga wynajmu dedykowanej karty graficznej.
wskazówka

Jeśli nie wiesz jak skorzystać z LLM-API lub LLama.cpp, zajrzyj do naszej dokumentacji.

Aby uruchomić zasób obliczeniowy OpenWebUI, użyj następującej komendy w CLI CGC, zalecamy co najmniej 2 rdzenie procesora i 2GB pamięci RAM:

cgc compute create -c 2 -m 2 -n <your_compute_name> -d openai_api_key=<your_api_key> -v <your_volume_name> open-webui 

Zmienne środowiskowe

Wymagane

  • openai_api_key - twój klucz API OpenAI umożliwiający używanie LLM - aby użyć modeli z LLM-API, wygeneruj klucz API w LLM-API

Opcjonalne

Wymagane jeśli podany jest rag_openai_api_base_url

  • rag_openai_api_key - klucz API do modeli embedujących - używając modeli z LLM-API, podaj ten sam klucz API, który wygenerowałeś dla openai_api_key
  • rag_embedding_model - model embedujący - domyślnie: gte-qwen2-7b
  • rag_embedding_engine - silnik modeli embedujących - domyślnie: openai

W przypadku pomyłki w zmiennych środowiskowych, możesz je później zmienić w panelu Admin Settings.

Rejestracja i konfiguracja

Po uruchomieniu zasobu obliczeniowego w CLI CGC powinieneś zobaczyć informacje o utworzeniu zasobu obliczeniowego OpenWebUI oraz URL i token aplikacji umożliwiający dostęp do interfejsu OpenWebUI.

OpenWebUI CLI

W przeglądarce przejdź do URL podanego w CLI, powinieneś zobaczyć interfejs OpenWebUI.

Interfejs OpenWebUI

Kontynuuj klikając przycisk Get started.

W kolejnym kroku zostaniesz poproszony o utworzenie konta administratora. Zarejestruj się za pomocą adresu e-mail i hasła.

Info

OpenWebUI nie wykonuje żadnych połączeń na zewnątrz, twoje dane w tym mail i hasło są bezpiecznie przechowywane lokalnie.

OpenWebUI Admin Register

Po zarejestrowaniu zostaniesz przekierowany do interfejsu OpenWebUI.

OpenWebUI Chat

Konfiguracja dostawcy LLM

Info

Jeśli skonfigurowałeś zasób obliczeniowy z LLM-API podczas tworzenia zasobu obliczeniowego, możesz pominąć ten krok.

Zanim będziemy mogli skorzystać z interfejsu chatu, musimy skonfigurować dostawcę LLM. Aby to zrobić, kliknij przycisk Settings w prawym górnym rogu interfejsu.

OpenWebUI Settings

W panelu ustawień wybierz Admin Settings.

OpenWebUI Admin Settings

W sekcji Admin Settings wybierz Connections.

OpenWebUI OpenAI Api

W oknie Add Connection wypełnij pola URL i API Key wartościami z LLM-API lub zasobu obliczeniowego LLama.cpp, który utworzyłeś wcześniej.

OpenWebUI LLM API

Korzystając z LLM API nie musisz określać ID modelu, ponieważ OpenWebUI automatycznie wykryje i będzie używać dostępnych modeli z LLM API poprzez endpoint models.

Konfiguracja dostawcy LLM jako użytkownik

OpenWebUI od wersji v0.5.12 wprowadził możliwość konfiguracji dostawcy LLM jako użytkownik, dzięki czemu nie trzeba polegać na kluczu API konta Administratora.

Przejdź do ustawień na koncie użytkownika, a poźniej do sekcji Połączenia.

W sekcji połączenia dodaj bezpośrednie połączenie.

OpenWebUI Direct Connection

W oknie Add Connection wypełnij pola URL i API Key wartościami z LLM-API lub zasobu obliczeniowego LLama.cpp, który utworzyłeś wcześniej.

Korzystając z LLM API nie musisz określać ID modelu, ponieważ OpenWebUI automatycznie wykryje i będzie używać dostępnych modeli z LLM API poprzez endpoint /models.

OpenWebUI Direct Models

Bezpośrednie modele będą wyświetlane z etykietą Direct.

Używanie OpenWebUI

OpenWebUI LLM API Models

Aby odpytać LLM, wybierz model z listy dostępnych modeli.

Po wybraniu modelu możesz użyć interfejsu chatu. Zadaj swoje pytanie w polu tekstowym i naciśnij Enter, aby wysłać swoją wiadomość.

OpenWebUI Chat Interface

Gotowe! Możesz teraz rozmawiać z LLM.

OpenWebUI Prompt

Przesyłanie plików

OpenWebUI pozwala na przesyłanie plików do interfejsu chatu. Aby to zrobić, kliknij przycisk plus po lewej stronie interfejsu chatu lub przeciągnij plik do interfejsu chatu.

OpenWebUI Upload Files

Po przesłaniu pliku, zobaczysz go w interfejsie chatu. Teraz możesz zadać pytanie LLM o treść pliku lub użyć pliku jako kontekstu dla rozmowy.

OpenWebUI Uploaded File

Obsługiwane formaty plików:

  • .pdf
  • .txt
  • .json
  • .csv
  • .docx
  • .pptx
  • .xlsx
  • .md

Wyszukiwanie w sieci

OpenWebUI pozwala na wyszukiwanie w sieci.

Aby wyszukać w sieci, musisz podać klucz API wyszukiwarki. Aby to zrobić, otwórz panel ustawień:

OpenWebUI Search

Kliknij na Admin Settings.

OpenWebUI Admin Settings

W panelu ustawień admina wybierz Web Search.

OpenWebUI Search On

W panelu Web Search włącz przycisk Web Search. Podaj klucz API i kliknij Save.

Teraz możesz wyszukiwać w sieci. Kliknij przycisk Web Search w interfejsie chatu i wpisz swoje pytanie.

OpenWebUI Web Search

Używanie strony internetowej jako kontekstu

OpenWebUI pozwala na używanie strony internetowej jako kontekstu dla rozmowy. Aby to zrobić, wpisz "#webpage" w interfejsie chatu i w miejsce webpage wklej URL strony internetowej.

Strona powinna być widoczna jako kontekst w interfejsie chatu. Twoja wiadomość powinna wyglądać następująco:

OpenWebUI Web Context

Po zadaniu pytania, LLM powinien odpowiedzieć na pytanie na podstawie strony internetowej.

Tworzenie użytkowników

Aby stworzyć nowych użytkowników, przejdź do Admin Panel w OpenWebUI.

W panelu admina naciśnij przycisk + aby stworzyć nowego użytkownika.

W formularzu Add user wypełnij rolę, imię, e-mail i hasło dla nowego użytkownika.

Wyślij e-mail i hasło użytkownikowi, z ich pomocą będzie on mógł się zalogować do OpenWebUI.

Jak włączyć użytkownikom dostęp do modeli LLM

Istnieją dwa sposoby na włączenie użytkownikom dostępu do modeli LLM:

1. Dodawanie użytkowników do grupy

To jest zalecany sposób na włączenie użytkownikom dostępu do modeli LLM. Aby dodać użytkownika do grupy, przejdź do Admin Panel w OpenWebUI i przejdź do sekcji Groups.

Naciśnij przycisk + aby stworzyć nową grupę.

Po stworzeniu nowej grupy, zobaczysz ją na liście grup. Kliknij na nią aby ją otworzyć. Tutaj możesz dodać użytkowników i zmienić uprawnienia grupy. W ustawieniach grupy włącz opcję Models Access i naciśnij Save.

Teraz możesz dodać model do grupy. Przejdź do Admin Settings i wybierz sekcję Models. Kliknij na model, który chcesz dodać do grupy i naciśnij Select a group. Naciśnij + aby dodać model do grupy i Save.

OpenWebUI Adding Models

Gotowe! Teraz użytkownicy z grupy będą mieli dostęp do wybranych modeli.

2. Dostęp do wszystkich modeli

To jest prostszy sposób na włączenie użytkownikom dostępu do modeli LLM, może być jednak mniej bezpieczny.

Uwaga: Jeśli nie ma grup z dostępem do modeli, upewnij się, że wszyscy użytkownicy mają włączony dostęp do modeli.

OpenWebUI Models Access

Żeby włączyć dostęp do wszystkich modeli, przejdź do Admin Settings i wybierz sekcję Models. Kliknij na model, który chcesz udostępnić wszystkim użytkownikom i zmień jego widoczność na Public.

OpenWebUI Public Model

Gotowe! Teraz wszyscy użytkownicy będą mieli dostęp do wybranych modeli.

Po więcej informacji na temat OpenWebUI, zapraszamy do oficjalnej dokumentacji OpenWebUI.