Cognee Logo

cognee - Mémoire pour Agents IA en 5 lignes de code

Demo . Learn more · Join Discord · Join r/AIMemory . Docs . cognee community repo

GitHub forks GitHub stars GitHub commits Github tag Downloads License Contributors Sponsor

cognee - Memory for AI Agents  in 5 lines of code | Product Hunt topoteretes%2Fcognee | Trendshift

🚀 Nous lançons Cognee SaaS : Inscrivez-vous ici pour la version hébergée en bêta !

Créez une mémoire dynamique pour les Agents et remplacez le RAG grâce à des pipelines ECL (Extract, Cognify, Load) modulaires et évolutifs.

Plus d'informations sur les cas d'utilisation et les évaluations

🌐 Available Languages : Deutsch | Español | français | 日本語 | 한국어 | Português | Русский | 中文

Why cognee?

Fonctionnalités

  • Interconnectez et retrouvez vos conversations passées, documents, images et transcriptions audio
  • Remplace les systèmes RAG et réduit l'effort des développeurs ainsi que les coûts.
  • Chargez des données vers des bases de données graphes et vectorielles en utilisant uniquement Pydantic
  • Manipulez vos données lors de l'ingestion depuis plus de 30 sources de données

Premiers pas

Démarrez rapidement avec un notebook Google Colab notebook, Deepnote notebook ou le dépôt de démarrage

Contribution

Vos contributions sont au cœur de ce véritable projet open source. Toute contribution est grandement appréciée. Consultez CONTRIBUTING.md pour plus d'informations.

📦 Installation

Vous pouvez installer Cognee en utilisant pip, poetry, uv ou tout autre gestionnaire de paquets Python. Cognee prend en charge Python 3.8 à 3.12

Avec pip

pip install cognee

Installation locale de Cognee

Vous pouvez installer le dépôt local de Cognee en utilisant pip, poetry et uv. Pour une installation locale avec pip, assurez-vous que votre version de pip est supérieure à la version 21.3.

avec UV et toutes les dépendances optionnelles

uv sync --all-extras

💻 Utilisation de base

Configuration

import os
os.environ["LLM_API_KEY"] = "YOUR OPENAI_API_KEY"

Vous pouvez également définir les variables en créant un fichier .env, en utilisant notre modèle. Pour utiliser différents fournisseurs de LLM, consultez notre documentation pour plus d'informations.

Exemple simple

Ce script exécutera le pipeline par défaut :

import cognee
import asyncio


async def main():
    # Add text to cognee
    await cognee.add("Natural language processing (NLP) is an interdisciplinary subfield of computer science and information retrieval.")

    # Generate the knowledge graph
    await cognee.cognify()

    # Query the knowledge graph
    results = await cognee.search("Tell me about NLP")

    # Display the results
    for result in results:
        print(result)


if __name__ == '__main__':
    asyncio.run(main())

Exemple de sortie :

  Natural Language Processing (NLP) is a cross-disciplinary and interdisciplinary field that involves computer science and information retrieval. It focuses on the interaction between computers and human language, enabling machines to understand and process natural language.

Notre article est publié ! Lire ici

cognee paper

Interface Cognee

Vous pouvez également cognifier vos fichiers et interroger en utilisant l'interface Cognee.

Cognee UI 2

Essayez l'interface Cognee localement ici.

Comprendre notre architecture

cognee concept diagram

Démonstrations

  1. Qu'est-ce que la mémoire IA :

En savoir plus sur cognee

  1. Démo simple de GraphRAG

Démo simple de GraphRAG

  1. cognee avec Ollama

cognee avec modèles locaux

Code de Conduite

Nous nous engageons à faire de l'open source une expérience agréable et respectueuse pour notre communauté. Consultez CODE_OF_CONDUCT pour plus d'informations.

💫 Contributeurs

contributors

Historique des Stars

Star History Chart