Опенсорсная "альтернатива" Perplexity.ai, которая использует LLM для умного поиска по множеству источников (включая GitHub, arXiv, StackOverflow) и генерирует подробные ответы со ссылками.

Как это работает?

  1. Умная генерация запросов: LLM анализирует ваш вопрос и создает несколько оптимальных поисковых запросов для разных движков.
  2. Поиск в источниках: Система использует SearXNG для параллельного поиска по 40+ специализированным источникам (код, наука, Q&A).
  3. Анализ контента: Найденные веб-страницы скрапятся для извлечения полного текста и глубокого анализа.
  4. Генерация ответа: LLM сначала формирует рассуждения (reasoning), а затем создает развернутый ответ со ссылками на источники.
  5. Сохранение отчета: Весь процесс, включая найденные URL и статистику, автоматически сохраняется в Markdown-файл.

Ключевые возможности

  • 🎯 Умный поиск: Генерация нескольких поисковых запросов для максимального охвата темы.
  • 📚 Специализированные источники: Точные результаты благодаря поиску по GitHub, arXiv, PubMed, StackOverflow и другим.
  • 💭 Прозрачность: Ответы включают reasoning, который показывает ход мыслей модели перед финальным выводом.
  • 📄 Автоматические отчеты: Все результаты, источники и статистика сохраняются в удобном Markdown-формате.

Технологии

  • Python 3.13+
  • SearXNG для агрегации результатов поиска
  • OpenAI-совместимый API (OpenAI, OpenRouter, Together AI)
  • Langchain & Pydantic
  • Asyncio для быстрой асинхронной обработки

Подробнее о проекте и исходный код доступны на GitHub: ascorblack/perplexity-simple.