IA / ML

Vector Database

A database optimized for storing and querying high-dimensional vector embeddings using similarity search (cosine distance, dot product, Euclidean distance). Examples: Pinecone, Weaviate, Qdrant, ChromaDB, pgvector. Vector databases power RAG systems by quickly finding the most relevant documents for a given query embedding. Essential for AI-powered developer tools and documentation search.

IDvector-database

Lectura rápida

Empieza por la explicación más corta y útil antes de profundizar.

A database optimized for storing and querying high-dimensional vector embeddings using similarity search (cosine distance, dot product, Euclidean distance). Examples: Pinecone, Weaviate, Qdrant, ChromaDB, pgvector. Vector databases power RAG systems by quickly finding the most relevant documents for a given query embedding. Essential for AI-powered developer tools and documentation search.

Modelo mental

Usa primero la analogía corta para razonar mejor sobre el término cuando aparezca en código, docs o prompts.

Piensa en esto como una pieza de la pila de contexto o inferencia usada en productos con agentes o LLMs.

Contexto técnico

Ubica el término dentro de la capa de Solana en la que vive para razonar mejor sobre él.

LLMs, RAG, embeddings, inferencia y primitivas orientadas a agentes.

Por qué le importa a un builder

Convierte el término de vocabulario en algo operacional para producto e ingeniería.

Se vuelve más útil cuando navegas por Ruta de Agentes y necesitas vocabulario aterrizado dentro de un flujo real de build.

Handoff para IA

Handoff para IA

Usa este bloque compacto cuando quieras dar contexto sólido a un agente o asistente sin volcar toda la página.

Vector Database (vector-database)
Categoría: IA / ML
Definición: A database optimized for storing and querying high-dimensional vector embeddings using similarity search (cosine distance, dot product, Euclidean distance). Examples: Pinecone, Weaviate, Qdrant, ChromaDB, pgvector. Vector databases power RAG systems by quickly finding the most relevant documents for a given query embedding. Essential for AI-powered developer tools and documentation search.
Relacionados: Embedding, RAG (Generación Aumentada por Recuperación)
Glossary Copilot

Haz preguntas de Solana con contexto aterrizado sin salir del glosario.

Usa contexto del glosario, relaciones entre términos, modelos mentales y builder paths para recibir respuestas estructuradas en vez de output genérico.

Abrir workspace completa del Copilot
Explicar este código

Opcional: pega código Anchor, Solana o Rust para que el Copilot mapee primitivas de vuelta al glosario.

Haz una pregunta aterrizada en el glosario

Haz una pregunta aterrizada en el glosario

El Copilot responderá usando el término actual, conceptos relacionados, modelos mentales y el grafo alrededor del glosario.

Grafo conceptual

Ve el término como parte de una red, no como una definición aislada.

Estas ramas muestran qué conceptos toca este término directamente y qué existe una capa más allá de ellos.

Rama

Embedding

A dense vector representation of text (or other data) in a continuous high-dimensional space where semantically similar items are closer together. Embedding models (OpenAI ada-002, Cohere, sentence-transformers) convert text to vectors of 256-3072 dimensions. Used in RAG for semantic search, in recommendation systems, and for clustering. Stored and queried via vector databases.

Rama

RAG (Generación Aumentada por Recuperación)

An AI architecture that combines LLMs with external knowledge retrieval. Instead of relying solely on training data, RAG systems retrieve relevant documents from a knowledge base (using embeddings and vector search), then provide them as context to the LLM. RAG reduces hallucinations and enables up-to-date responses. Useful for blockchain documentation bots and developer assistants.

Siguientes conceptos para explorar

Mantén la cadena de aprendizaje en movimiento en lugar de parar en una sola definición.

Estos son los siguientes conceptos que vale la pena abrir si quieres que este término tenga más sentido dentro de un workflow real de Solana.

IA / ML

Embedding

A dense vector representation of text (or other data) in a continuous high-dimensional space where semantically similar items are closer together. Embedding models (OpenAI ada-002, Cohere, sentence-transformers) convert text to vectors of 256-3072 dimensions. Used in RAG for semantic search, in recommendation systems, and for clustering. Stored and queried via vector databases.

IA / ML

RAG (Generación Aumentada por Recuperación)

An AI architecture that combines LLMs with external knowledge retrieval. Instead of relying solely on training data, RAG systems retrieve relevant documents from a knowledge base (using embeddings and vector search), then provide them as context to the LLM. RAG reduces hallucinations and enables up-to-date responses. Useful for blockchain documentation bots and developer assistants.

IA / ML

Windsurf

An AI-powered code editor (VS Code fork) originally created by Codeium and later acquired by Cognition. Launched in November 2024 as a competitor to Cursor, it features the Cascade agent that indexes entire codebases for context-aware assistance. Positions itself as a 'next-generation agentic IDE' with full-codebase understanding, inline editing, and autonomous multi-step task execution.

IA / ML

Transformer

The neural network architecture underlying modern LLMs, introduced in 'Attention Is All You Need' (2017). Transformers use self-attention mechanisms to process input sequences in parallel (unlike recurrent networks). Key components: multi-head attention, positional encoding, feedforward layers, and layer normalization. Variants include encoder-only (BERT), decoder-only (GPT), and encoder-decoder (T5).

Términos relacionados

Sigue los conceptos que realmente le dan contexto a este término.

Las entradas del glosario se vuelven útiles cuando están conectadas. Estos enlaces son el camino más corto hacia ideas adyacentes.

IA / MLembedding

Embedding

A dense vector representation of text (or other data) in a continuous high-dimensional space where semantically similar items are closer together. Embedding models (OpenAI ada-002, Cohere, sentence-transformers) convert text to vectors of 256-3072 dimensions. Used in RAG for semantic search, in recommendation systems, and for clustering. Stored and queried via vector databases.

IA / MLrag

RAG (Generación Aumentada por Recuperación)

An AI architecture that combines LLMs with external knowledge retrieval. Instead of relying solely on training data, RAG systems retrieve relevant documents from a knowledge base (using embeddings and vector search), then provide them as context to the LLM. RAG reduces hallucinations and enables up-to-date responses. Useful for blockchain documentation bots and developer assistants.

Rutas

Este término forma parte de una ruta curada de aprendizaje.

Usa estas rutas cuando quieras pasar de un lookup aislado a una exploración guiada.

Ruta

Ruta de Agentes

Mapea el glosario al workflow agentic y a la pila de recuperación de contexto.

6 términos
Más en la categoría

Quédate en la misma capa y sigue construyendo contexto.

Estas entradas viven junto al término actual y ayudan a que la página se sienta parte de un grafo de conocimiento más amplio en lugar de un callejón sin salida.

IA / ML

LLM (Modelo de Lenguaje Grande)

A neural network trained on vast text corpora to understand and generate human language. LLMs (GPT-4, Claude, Llama, Gemini) use transformer architectures with billions of parameters. They power chatbots, code generation, summarization, and reasoning tasks. In blockchain development, LLMs assist with smart contract writing, audit review, documentation, and code explanation.

IA / ML

Transformer

The neural network architecture underlying modern LLMs, introduced in 'Attention Is All You Need' (2017). Transformers use self-attention mechanisms to process input sequences in parallel (unlike recurrent networks). Key components: multi-head attention, positional encoding, feedforward layers, and layer normalization. Variants include encoder-only (BERT), decoder-only (GPT), and encoder-decoder (T5).

IA / ML

Attention Mechanism

A neural network component that allows models to weigh the relevance of different parts of the input when producing output. Self-attention computes query-key-value dot products across all positions, enabling each token to 'attend' to every other token. Multi-head attention runs multiple attention functions in parallel. Attention is O(n²) in sequence length, driving context window research.

IA / ML

Foundation Model

A large AI model trained on broad data that can be adapted for many downstream tasks. Foundation models (GPT-4, Claude, Llama 3, Gemini) are pre-trained on internet-scale text/code and can be fine-tuned, prompted, or used via APIs for specific applications. The term emphasizes that one base model serves as the foundation for diverse use cases rather than training task-specific models.