Опенсорсная "альтернатива" Perplexity.ai, которая использует LLM для умного поиска по множеству источников (включая GitHub, arXiv, StackOverflow) и генерирует подробные ответы со ссылками.
Как это работает?
- Умная генерация запросов: LLM анализирует ваш вопрос и создает несколько оптимальных поисковых запросов для разных движков.
- Поиск в источниках: Система использует SearXNG для параллельного поиска по 40+ специализированным источникам (код, наука, Q&A).
- Анализ контента: Найденные веб-страницы скрапятся для извлечения полного текста и глубокого анализа.
- Генерация ответа: LLM сначала формирует рассуждения (reasoning), а затем создает развернутый ответ со ссылками на источники.
- Сохранение отчета: Весь процесс, включая найденные URL и статистику, автоматически сохраняется в Markdown-файл.
Ключевые возможности
- 🎯 Умный поиск: Генерация нескольких поисковых запросов для максимального охвата темы.
- 📚 Специализированные источники: Точные результаты благодаря поиску по GitHub, arXiv, PubMed, StackOverflow и другим.
- 💭 Прозрачность: Ответы включают reasoning, который показывает ход мыслей модели перед финальным выводом.
- 📄 Автоматические отчеты: Все результаты, источники и статистика сохраняются в удобном Markdown-формате.
Технологии
- Python 3.13+
- SearXNG для агрегации результатов поиска
- OpenAI-совместимый API (OpenAI, OpenRouter, Together AI)
- Langchain & Pydantic
- Asyncio для быстрой асинхронной обработки
Подробнее о проекте и исходный код доступны на GitHub: ascorblack/perplexity-simple.