Вы, должно быть, сталкивались с случаями, когда всевозможные большие модели общего назначения говорили серьезную ерунду. Из-за плавной и плавной работы ИИ трудно отличить истину от ложности, что делает невозможным защиту. Это состояние называется ИИ-галлюцинацией.
Причина, по которой большие модели, к сожалению, переворачиваются из-за галлюцинаций, во многом связана с «врожденными недостатками». Например, данные обучения из конкретных полей во время обучения относительно отсутствуют или являются предвзятыми. Для предприятий иллюзия ИИ стала серьезным недостатком, препятствующим его внедрению.
Мы, естественно, хотим, чтобы некоторые частные данные внутри предприятия использовались в процессе вывода и анализа больших моделей, чтобы они могли лучше служить повседневному бизнесу. Однако из соображений информационной безопасности и других соображений частные данные, очевидно, не могут быть загружены на сторонние платформы. воля. В ответ на эту ситуацию существует простое решение — объединить внутреннюю базу знаний предприятия и крупные модели для создания локальной приватизированной и эксклюзивной базы знаний в области ИИ.
В настоящее время, когда пользователи задают вопросы, представленная нами общая большая модель будет предоставлять целевые ответы на основе информации, существующей в локальной базе знаний, и даже может специально анализировать информацию в локальной базе знаний для вывода.
AnythingLLM — это инструмент для создания локальных баз знаний. Он может напрямую читать документы и обрабатывать большое количество информационных ресурсов, включая загрузку документов, автоматическое сканирование онлайн-документов, автоматическую сегментацию и векторизацию текста, а также улучшенную генерацию локального поиска (RAG). другие функции.
AnythingLLM поддерживает практически все основные большие модели и несколько типов документов. Он легко настраивается и прост в установке. Он подходит для платформ MacOS, Linux и Windows, а также может быть установлен с помощью Docker. AnythingLLM по умолчанию использует LLama2 7B, Mistral 7B, Gemma 2B и другие модели через Ollama, а также может вызывать API-сервисы больших моделей, таких как OpenAI, Gemini, Mistral и так далее. Помимо AnythingLLM, в последнее время популярные инструменты баз знаний включают MaxKB, RAGFlow, FastGPT, Dify, Open WebUI и т. д.
доступ https://ollama.com/download Выберите нужную версию
В нашем примере мы выбрали большую модель Tongyi Qianwen и встроенную модель M3e.,Вы также можете выбрать для загрузки другие модели в соответствии с вашими потребностями.。OllamaСписок поддерживаемых моделей и использование ресурсов можно посмотреть на официальном сайте.:https://ollama.com/library
доступ https://anythingllm.com/download Выберите соответствующую версию
Параметры конфигурации выберите Оллама
Встраиватель выбирает M3e
Выберите LanceDB для базы данных векторов (по умолчанию).
На данный момент создана базовая архитектура локальной частной базы знаний на базе искусственного интеллекта. Далее нам нужно создать рабочее пространство, загрузить корпоративные личные данные в различных форматах документов и проверить, может ли оно работать правильно.
Не стесняйтесь генерировать фрагмент необработанных данных следующим образом:
Результаты разговора (сортировка и фильтрация данных):
Исходные данные представляют собой документ сетевой операционной системы Xingrongyuan AsterNOS, а детали, включающие функции высокой надежности, следующие.
Результаты разговора:
Ниже приводится фрагмент функций коммутатора со сверхнизкой задержкой.
Результаты разговора:
Как видите, эта локальная база знаний ИИ уже использует частные текстовые данные, которые мы загрузили для ответов на вопросы. Далее вам необходимо постоянно пополнять частный контент, чтобы сделать его более интеллектуальным и надежным, и крупные предприятия должны его «тщательно настроить». «Например, полностью учтите производительность одновременного доступа локальной системы вывода ИИ, внесите соответствующие корректировки и обновления в сетевую инфраструктуру, а также обратите внимание на интеграцию с другими внутренними инструментами.