feat: updates to btree/index/query/sstable/table

This commit is contained in:
2025-10-11 13:19:26 +08:00
parent c8cbe4178f
commit 03ec262ca5
7 changed files with 1229 additions and 54 deletions

339
btree.go
View File

@@ -52,7 +52,7 @@ B+Tree 用于索引 SSTable 和 Index 文件,提供 O(log n) 查询性能。
[Header: 32B]
[Keys: Key0(8B), Key1(8B), Key2(8B)]
[Children: Child0(8B), Child1(8B), Child2(8B), Child3(8B)]
查询规则:
- key < Key0 Child0
- Key0 key < Key1 Child1
@@ -144,27 +144,29 @@ func NewLeafNode() *BTreeNode {
// Marshal 序列化节点到 4 KB
//
// 布局:
// [Header: 32B]
// [Keys: KeyCount * 8B]
// [Values: 取决于节点类型]
// - Internal: Children (KeyCount+1) * 8B
// - Leaf: 交错存储 (Offset, Size) 对,每对 12BKeyCount * 12B
//
// [Header: 32B]
// [Keys: KeyCount * 8B]
// [Values: 取决于节点类型]
// - Internal: Children (KeyCount+1) * 8B
// - Leaf: 交错存储 (Offset, Size) 对,每对 12B共 KeyCount * 12B
//
// 示例叶子节点KeyCount=3
// Offset | Size | Content
// -------|------|----------------------------------
// 0 | 1 | NodeType = 1 (Leaf)
// 1 | 2 | KeyCount = 3
// 3 | 1 | Level = 0
// 4 | 28 | Reserved
// 32 | 24 | Keys [100, 200, 300]
// 56 | 8 | DataOffset0 = 1000
// 64 | 4 | DataSize0 = 50
// 68 | 8 | DataOffset1 = 2000
// 76 | 4 | DataSize1 = 60
// 80 | 8 | DataOffset2 = 3000
// 88 | 4 | DataSize2 = 70
// 92 | 4004 | Padding (unused)
//
// Offset | Size | Content
// -------|------|----------------------------------
// 0 | 1 | NodeType = 1 (Leaf)
// 1 | 2 | KeyCount = 3
// 3 | 1 | Level = 0
// 4 | 28 | Reserved
// 32 | 24 | Keys [100, 200, 300]
// 56 | 8 | DataOffset0 = 1000
// 64 | 4 | DataSize0 = 50
// 68 | 8 | DataOffset1 = 2000
// 76 | 4 | DataSize1 = 60
// 80 | 8 | DataOffset2 = 3000
// 88 | 4 | DataSize2 = 70
// 92 | 4004 | Padding (unused)
func (n *BTreeNode) Marshal() []byte {
buf := make([]byte, BTreeNodeSize)
@@ -213,10 +215,12 @@ func (n *BTreeNode) Marshal() []byte {
// UnmarshalBTree 从字节数组反序列化节点
//
// 参数:
// data: 4KB 节点数据(通常来自 mmap
//
// data: 4KB 节点数据(通常来自 mmap
//
// 返回:
// *BTreeNode: 反序列化后的节点
//
// *BTreeNode: 反序列化后的节点
//
// 零拷贝优化:
// - 直接从 mmap 数据读取,不复制整个节点
@@ -310,15 +314,16 @@ func (n *BTreeNode) AddData(key int64, offset int64, size int32) error {
// BTreeBuilder 从下往上构建 B+Tree
//
// 构建流程:
// 1. Add(): 添加所有 (key, offset, size) 到叶子节点
// - 当叶子节点满时,创建新的叶子节点
// - 所有叶子节点按 key 有序
//
// 2. Build(): 从叶子层向上构建
// - Level 0: 叶子节点(已创建)
// - Level 1: 为叶子节点创建父节点(内部节点)
// - Level 2+: 递归创建更高层级
// - 最终返回根节点偏移量
// 1. Add(): 添加所有 (key, offset, size) 到叶子节点
// - 当叶子节点满时,创建新的叶子节点
// - 所有叶子节点按 key 有序
//
// 2. Build(): 从叶子层向上构建
// - Level 0: 叶子节点(已创建)
// - Level 1: 为叶子节点创建父节点(内部节点)
// - Level 2+: 递归创建更高层级
// - 最终返回根节点偏移量
//
// 示例100 个 keyOrder=200
// - 叶子层: 1 个叶子节点100 个 key
@@ -453,13 +458,13 @@ func (b *BTreeBuilder) buildLevel(children []*BTreeNode, childOffsets []int64, l
// BTreeReader 用于查询 B+Tree (mmap)
//
// 查询流程:
// 1. 从根节点开始
// 2. 如果是内部节点:
// - 二分查找确定子节点
// - 跳转到子节点继续查找
// 3. 如果是叶子节点:
// - 二分查找 key
// - 返回 (dataOffset, dataSize)
// 1. 从根节点开始
// 2. 如果是内部节点:
// - 二分查找确定子节点
// - 跳转到子节点继续查找
// 3. 如果是叶子节点:
// - 二分查找 key
// - 返回 (dataOffset, dataSize)
//
// 性能优化:
// - mmap 零拷贝:直接从内存映射读取节点
@@ -485,17 +490,19 @@ func NewBTreeReader(mmap mmap.MMap, rootOffset int64) *BTreeReader {
// Get 查询 key返回数据位置
//
// 参数:
// key: 要查询的 key
//
// key: 要查询的 key
//
// 返回:
// dataOffset: 数据块的文件偏移量
// dataSize: 数据块的大小
// found: 是否找到
//
// dataOffset: 数据块的文件偏移量
// dataSize: 数据块的大小
// found: 是否找到
//
// 查询流程:
// 1. 从根节点开始遍历
// 2. 内部节点:二分查找确定子节点,跳转
// 3. 叶子节点:二分查找 key返回数据位置
// 1. 从根节点开始遍历
// 2. 内部节点:二分查找确定子节点,跳转
// 3. 叶子节点:二分查找 key返回数据位置
func (r *BTreeReader) Get(key int64) (dataOffset int64, dataSize int32, found bool) {
if r.rootOffset == 0 {
return 0, 0, false
@@ -543,7 +550,7 @@ func (r *BTreeReader) Get(key int64) (dataOffset int64, dataSize int32, found bo
}
}
// GetAllKeys 获取 B+Tree 中所有的 key序)
// GetAllKeys 获取 B+Tree 中所有的 key序)
func (r *BTreeReader) GetAllKeys() []int64 {
if r.rootOffset == 0 {
return nil
@@ -562,7 +569,217 @@ func (r *BTreeReader) GetAllKeys() []int64 {
return keys
}
// traverseLeafNodes 遍历所有叶子节点
// GetAllKeysDesc 获取 B+Tree 中所有的 key按降序
//
// 性能优化:
// - 从右到左遍历叶子节点
// - 每个叶子节点内从后往前读取 keys
// - 避免额外的排序操作
func (r *BTreeReader) GetAllKeysDesc() []int64 {
if r.rootOffset == 0 {
return nil
}
var keys []int64
r.traverseLeafNodesReverse(r.rootOffset, func(node *BTreeNode) {
// 从后往前添加 keys
for i := len(node.Keys) - 1; i >= 0; i-- {
keys = append(keys, node.Keys[i])
}
})
return keys
}
// KeyCallback 迭代回调函数
//
// 参数:
// - key: 当前的 key序列号
// - dataOffset: 数据块的文件偏移量
// - dataSize: 数据块的大小
//
// 返回:
// - true: 继续迭代
// - false: 停止迭代
type KeyCallback func(key int64, dataOffset int64, dataSize int32) bool
// ForEach 升序迭代所有 key支持提前终止
//
// 使用场景:
// - 需要遍历数据但不想一次性加载所有 keys节省内存
// - 支持条件过滤,找到目标后提前终止
// - 支持外部自定义处理逻辑
//
// 示例:
//
// // 找到第一个 > 100 的 key
// reader.ForEach(func(key int64, offset int64, size int32) bool {
// if key > 100 {
// fmt.Printf("Found: %d\n", key)
// return false // 停止迭代
// }
// return true // 继续
// })
func (r *BTreeReader) ForEach(callback KeyCallback) {
if r.rootOffset == 0 {
return
}
r.forEachInternal(r.rootOffset, callback, false)
}
// ForEachDesc 降序迭代所有 key支持提前终止
//
// 使用场景:
// - 从最新数据开始遍历(时序数据库常见需求)
// - 查找最近的 N 条记录
// - 支持条件过滤和提前终止
//
// 示例:
//
// // 获取最新的 10 条记录
// count := 0
// reader.ForEachDesc(func(key int64, offset int64, size int32) bool {
// fmt.Printf("Key: %d\n", key)
// count++
// return count < 10 // 找到 10 条后停止
// })
func (r *BTreeReader) ForEachDesc(callback KeyCallback) {
if r.rootOffset == 0 {
return
}
r.forEachInternal(r.rootOffset, callback, true)
}
// forEachInternal 内部迭代实现(支持升序和降序)
//
// 性能优化(真正的按需读取):
// - 只读取节点 header32 bytes确定节点类型和 key 数量
// - 对于叶子节点,逐个读取 key、offset、size避免一次性读取所有数据
// - 对于内部节点,逐个读取 child offset支持提前终止
// - 如果回调在第 N 个 key 返回 false只会读取前 N 个 key
//
// 参数:
// - nodeOffset: 当前节点的文件偏移量
// - callback: 回调函数
// - reverse: true=降序, false=升序
//
// 返回:
// - true: 继续迭代
// - false: 停止迭代(外部请求或遍历完成)
func (r *BTreeReader) forEachInternal(nodeOffset int64, callback KeyCallback, reverse bool) bool {
if nodeOffset+BTreeNodeSize > int64(len(r.mmap)) {
return true // 无效节点,继续其他分支
}
nodeData := r.mmap[nodeOffset : nodeOffset+BTreeNodeSize]
// 只读取 header32 bytes
if len(nodeData) < BTreeHeaderSize {
return true
}
nodeType := nodeData[0]
keyCount := int(binary.LittleEndian.Uint16(nodeData[1:3]))
if nodeType == BTreeNodeTypeLeaf {
// 叶子节点:按需逐个读取 key 和 data
// 布局:[Header: 32B][Keys: keyCount*8B][Data: (offset,size) pairs]
keysStartOffset := BTreeHeaderSize
dataStartOffset := keysStartOffset + keyCount*8
if reverse {
// 降序:从后往前读取
for i := keyCount - 1; i >= 0; i-- {
// 读取 key
keyOffset := keysStartOffset + i*8
if keyOffset+8 > len(nodeData) {
break
}
key := int64(binary.LittleEndian.Uint64(nodeData[keyOffset : keyOffset+8]))
// 读取 dataOffset 和 dataSize交错存储每对 12 bytes
dataOffset := dataStartOffset + i*12
if dataOffset+12 > len(nodeData) {
break
}
offset := int64(binary.LittleEndian.Uint64(nodeData[dataOffset : dataOffset+8]))
size := int32(binary.LittleEndian.Uint32(nodeData[dataOffset+8 : dataOffset+12]))
// 调用回调,如果返回 false 则立即停止(真正的按需读取)
if !callback(key, offset, size) {
return false
}
}
} else {
// 升序:从前往后读取
for i := range keyCount {
// 读取 key
keyOffset := keysStartOffset + i*8
if keyOffset+8 > len(nodeData) {
break
}
key := int64(binary.LittleEndian.Uint64(nodeData[keyOffset : keyOffset+8]))
// 读取 dataOffset 和 dataSize
dataOffset := dataStartOffset + i*12
if dataOffset+12 > len(nodeData) {
break
}
offset := int64(binary.LittleEndian.Uint64(nodeData[dataOffset : dataOffset+8]))
size := int32(binary.LittleEndian.Uint32(nodeData[dataOffset+8 : dataOffset+12]))
// 调用回调,如果返回 false 则立即停止
if !callback(key, offset, size) {
return false
}
}
}
return true
}
// 内部节点:按需逐个读取 child offset
// 布局:[Header: 32B][Keys: keyCount*8B][Children: (keyCount+1)*8B]
childCount := keyCount + 1
childrenStartOffset := BTreeHeaderSize + keyCount*8
if reverse {
// 降序:从右到左遍历子节点
for i := childCount - 1; i >= 0; i-- {
childOffset := childrenStartOffset + i*8
if childOffset+8 > len(nodeData) {
break
}
childPtr := int64(binary.LittleEndian.Uint64(nodeData[childOffset : childOffset+8]))
// 递归遍历子树,如果子树请求停止则立即返回
if !r.forEachInternal(childPtr, callback, reverse) {
return false
}
}
} else {
// 升序:从左到右遍历子节点
for i := range childCount {
childOffset := childrenStartOffset + i*8
if childOffset+8 > len(nodeData) {
break
}
childPtr := int64(binary.LittleEndian.Uint64(nodeData[childOffset : childOffset+8]))
// 递归遍历子树
if !r.forEachInternal(childPtr, callback, reverse) {
return false
}
}
}
return true
}
// traverseLeafNodes 遍历所有叶子节点(从左到右)
func (r *BTreeReader) traverseLeafNodes(nodeOffset int64, callback func(*BTreeNode)) {
if nodeOffset+BTreeNodeSize > int64(len(r.mmap)) {
return
@@ -579,9 +796,37 @@ func (r *BTreeReader) traverseLeafNodes(nodeOffset int64, callback func(*BTreeNo
// 叶子节点,执行回调
callback(node)
} else {
// 内部节点,递归遍历所有子节点
// 内部节点,递归遍历所有子节点(从左到右)
for _, childOffset := range node.Children {
r.traverseLeafNodes(childOffset, callback)
}
}
}
// traverseLeafNodesReverse 倒序遍历所有叶子节点(从右到左)
//
// 用于支持倒序查询,性能优化:
// - 避免先获取所有 keys 再反转
// - 直接从最右侧的叶子节点开始遍历
func (r *BTreeReader) traverseLeafNodesReverse(nodeOffset int64, callback func(*BTreeNode)) {
if nodeOffset+BTreeNodeSize > int64(len(r.mmap)) {
return
}
nodeData := r.mmap[nodeOffset : nodeOffset+BTreeNodeSize]
node := UnmarshalBTree(nodeData)
if node == nil {
return
}
if node.NodeType == BTreeNodeTypeLeaf {
// 叶子节点,执行回调
callback(node)
} else {
// 内部节点,递归遍历所有子节点(从右到左)
for i := len(node.Children) - 1; i >= 0; i-- {
r.traverseLeafNodesReverse(node.Children[i], callback)
}
}
}

View File

@@ -132,6 +132,386 @@ func TestBTreeSerialization(t *testing.T) {
t.Log("Serialization test passed!")
}
// TestBTreeForEach 测试升序迭代
func TestBTreeForEach(t *testing.T) {
// 创建测试文件
file, err := os.Create("test_foreach.sst")
if err != nil {
t.Fatal(err)
}
defer os.Remove("test_foreach.sst")
// 构建 B+Tree
builder := NewBTreeBuilder(file, 256)
for i := int64(1); i <= 100; i++ {
err := builder.Add(i, i*100, int32(i*10))
if err != nil {
t.Fatal(err)
}
}
rootOffset, err := builder.Build()
if err != nil {
t.Fatal(err)
}
file.Close()
// 打开并 mmap
file, _ = os.Open("test_foreach.sst")
defer file.Close()
mmapData, _ := mmap.Map(file, mmap.RDONLY, 0)
defer mmapData.Unmap()
reader := NewBTreeReader(mmapData, rootOffset)
// 测试 1: 完整升序迭代
t.Run("Complete", func(t *testing.T) {
var keys []int64
var offsets []int64
var sizes []int32
reader.ForEach(func(key int64, offset int64, size int32) bool {
keys = append(keys, key)
offsets = append(offsets, offset)
sizes = append(sizes, size)
return true
})
// 验证数量
if len(keys) != 100 {
t.Errorf("Expected 100 keys, got %d", len(keys))
}
// 验证顺序(升序)
for i := 0; i < len(keys)-1; i++ {
if keys[i] >= keys[i+1] {
t.Errorf("Keys not in ascending order: keys[%d]=%d, keys[%d]=%d",
i, keys[i], i+1, keys[i+1])
}
}
// 验证第一个和最后一个
if keys[0] != 1 {
t.Errorf("Expected first key=1, got %d", keys[0])
}
if keys[99] != 100 {
t.Errorf("Expected last key=100, got %d", keys[99])
}
// 验证 offset 和 size
for i, key := range keys {
expectedOffset := key * 100
expectedSize := int32(key * 10)
if offsets[i] != expectedOffset {
t.Errorf("Key %d: expected offset %d, got %d", key, expectedOffset, offsets[i])
}
if sizes[i] != expectedSize {
t.Errorf("Key %d: expected size %d, got %d", key, expectedSize, sizes[i])
}
}
})
// 测试 2: 提前终止
t.Run("EarlyTermination", func(t *testing.T) {
var keys []int64
reader.ForEach(func(key int64, offset int64, size int32) bool {
keys = append(keys, key)
return len(keys) < 5 // 只收集 5 个
})
if len(keys) != 5 {
t.Errorf("Expected 5 keys, got %d", len(keys))
}
if keys[0] != 1 || keys[4] != 5 {
t.Errorf("Expected keys [1,2,3,4,5], got %v", keys)
}
})
// 测试 3: 条件过滤
t.Run("ConditionalFilter", func(t *testing.T) {
var evenKeys []int64
reader.ForEach(func(key int64, offset int64, size int32) bool {
if key%2 == 0 {
evenKeys = append(evenKeys, key)
}
return true
})
if len(evenKeys) != 50 {
t.Errorf("Expected 50 even keys, got %d", len(evenKeys))
}
// 验证都是偶数
for _, key := range evenKeys {
if key%2 != 0 {
t.Errorf("Key %d is not even", key)
}
}
})
// 测试 4: 查找第一个满足条件的
t.Run("FindFirst", func(t *testing.T) {
var foundKey int64
count := 0
reader.ForEach(func(key int64, offset int64, size int32) bool {
count++
if key > 50 {
foundKey = key
return false // 找到后停止
}
return true
})
if foundKey != 51 {
t.Errorf("Expected to find key 51, got %d", foundKey)
}
if count != 51 {
t.Errorf("Expected to iterate 51 times, got %d", count)
}
})
// 测试 5: 与 GetAllKeys 结果一致性
t.Run("ConsistencyWithGetAllKeys", func(t *testing.T) {
var iterKeys []int64
reader.ForEach(func(key int64, offset int64, size int32) bool {
iterKeys = append(iterKeys, key)
return true
})
allKeys := reader.GetAllKeys()
if len(iterKeys) != len(allKeys) {
t.Errorf("Length mismatch: ForEach=%d, GetAllKeys=%d", len(iterKeys), len(allKeys))
}
for i := range iterKeys {
if iterKeys[i] != allKeys[i] {
t.Errorf("Key mismatch at index %d: ForEach=%d, GetAllKeys=%d",
i, iterKeys[i], allKeys[i])
}
}
})
}
// TestBTreeForEachDesc 测试降序迭代
func TestBTreeForEachDesc(t *testing.T) {
// 创建测试文件
file, err := os.Create("test_foreach_desc.sst")
if err != nil {
t.Fatal(err)
}
defer os.Remove("test_foreach_desc.sst")
// 构建 B+Tree
builder := NewBTreeBuilder(file, 256)
for i := int64(1); i <= 100; i++ {
err := builder.Add(i, i*100, int32(i*10))
if err != nil {
t.Fatal(err)
}
}
rootOffset, err := builder.Build()
if err != nil {
t.Fatal(err)
}
file.Close()
// 打开并 mmap
file, _ = os.Open("test_foreach_desc.sst")
defer file.Close()
mmapData, _ := mmap.Map(file, mmap.RDONLY, 0)
defer mmapData.Unmap()
reader := NewBTreeReader(mmapData, rootOffset)
// 测试 1: 完整降序迭代
t.Run("Complete", func(t *testing.T) {
var keys []int64
reader.ForEachDesc(func(key int64, offset int64, size int32) bool {
keys = append(keys, key)
return true
})
// 验证数量
if len(keys) != 100 {
t.Errorf("Expected 100 keys, got %d", len(keys))
}
// 验证顺序(降序)
for i := 0; i < len(keys)-1; i++ {
if keys[i] <= keys[i+1] {
t.Errorf("Keys not in descending order: keys[%d]=%d, keys[%d]=%d",
i, keys[i], i+1, keys[i+1])
}
}
// 验证第一个和最后一个
if keys[0] != 100 {
t.Errorf("Expected first key=100, got %d", keys[0])
}
if keys[99] != 1 {
t.Errorf("Expected last key=1, got %d", keys[99])
}
})
// 测试 2: 获取最新的 N 条记录(时序数据库常见需求)
t.Run("GetLatestN", func(t *testing.T) {
var latestKeys []int64
reader.ForEachDesc(func(key int64, offset int64, size int32) bool {
latestKeys = append(latestKeys, key)
return len(latestKeys) < 10 // 只取最新的 10 条
})
if len(latestKeys) != 10 {
t.Errorf("Expected 10 keys, got %d", len(latestKeys))
}
// 验证是最新的 10 条100, 99, 98, ..., 91
for i, key := range latestKeys {
expected := int64(100 - i)
if key != expected {
t.Errorf("latestKeys[%d]: expected %d, got %d", i, expected, key)
}
}
})
// 测试 3: 与 GetAllKeysDesc 结果一致性
t.Run("ConsistencyWithGetAllKeysDesc", func(t *testing.T) {
var iterKeys []int64
reader.ForEachDesc(func(key int64, offset int64, size int32) bool {
iterKeys = append(iterKeys, key)
return true
})
allKeys := reader.GetAllKeysDesc()
if len(iterKeys) != len(allKeys) {
t.Errorf("Length mismatch: ForEachDesc=%d, GetAllKeysDesc=%d", len(iterKeys), len(allKeys))
}
for i := range iterKeys {
if iterKeys[i] != allKeys[i] {
t.Errorf("Key mismatch at index %d: ForEachDesc=%d, GetAllKeysDesc=%d",
i, iterKeys[i], allKeys[i])
}
}
})
// 测试 4: 降序查找第一个满足条件的
t.Run("FindFirstDesc", func(t *testing.T) {
var foundKey int64
count := 0
reader.ForEachDesc(func(key int64, offset int64, size int32) bool {
count++
if key < 50 {
foundKey = key
return false // 找到后停止
}
return true
})
if foundKey != 49 {
t.Errorf("Expected to find key 49, got %d", foundKey)
}
if count != 52 { // 100, 99, ..., 50, 49
t.Errorf("Expected to iterate 52 times, got %d", count)
}
})
}
// TestBTreeForEachEmpty 测试空树的迭代
func TestBTreeForEachEmpty(t *testing.T) {
// 创建空的 B+Tree
file, _ := os.Create("test_empty.sst")
defer os.Remove("test_empty.sst")
builder := NewBTreeBuilder(file, 256)
rootOffset, _ := builder.Build()
file.Close()
file, _ = os.Open("test_empty.sst")
defer file.Close()
mmapData, _ := mmap.Map(file, mmap.RDONLY, 0)
defer mmapData.Unmap()
reader := NewBTreeReader(mmapData, rootOffset)
// 测试升序迭代
t.Run("ForEach", func(t *testing.T) {
called := false
reader.ForEach(func(key int64, offset int64, size int32) bool {
called = true
return true
})
if called {
t.Error("Callback should not be called on empty tree")
}
})
// 测试降序迭代
t.Run("ForEachDesc", func(t *testing.T) {
called := false
reader.ForEachDesc(func(key int64, offset int64, size int32) bool {
called = true
return true
})
if called {
t.Error("Callback should not be called on empty tree")
}
})
}
// TestBTreeForEachSingle 测试单个元素的迭代
func TestBTreeForEachSingle(t *testing.T) {
// 创建只有一个元素的 B+Tree
file, _ := os.Create("test_single.sst")
defer os.Remove("test_single.sst")
builder := NewBTreeBuilder(file, 256)
builder.Add(42, 4200, 420)
rootOffset, _ := builder.Build()
file.Close()
file, _ = os.Open("test_single.sst")
defer file.Close()
mmapData, _ := mmap.Map(file, mmap.RDONLY, 0)
defer mmapData.Unmap()
reader := NewBTreeReader(mmapData, rootOffset)
// 测试升序迭代
t.Run("ForEach", func(t *testing.T) {
var keys []int64
reader.ForEach(func(key int64, offset int64, size int32) bool {
keys = append(keys, key)
if offset != 4200 || size != 420 {
t.Errorf("Unexpected data: offset=%d, size=%d", offset, size)
}
return true
})
if len(keys) != 1 || keys[0] != 42 {
t.Errorf("Expected single key 42, got %v", keys)
}
})
// 测试降序迭代
t.Run("ForEachDesc", func(t *testing.T) {
var keys []int64
reader.ForEachDesc(func(key int64, offset int64, size int32) bool {
keys = append(keys, key)
return true
})
if len(keys) != 1 || keys[0] != 42 {
t.Errorf("Expected single key 42, got %v", keys)
}
})
}
func BenchmarkBTreeGet(b *testing.B) {
// 构建测试数据
file, _ := os.Create("bench.sst")
@@ -159,3 +539,86 @@ func BenchmarkBTreeGet(b *testing.B) {
reader.Get(key)
}
}
// BenchmarkBTreeForEach 性能测试:完整迭代
func BenchmarkBTreeForEach(b *testing.B) {
file, _ := os.Create("bench_foreach.sst")
defer os.Remove("bench_foreach.sst")
builder := NewBTreeBuilder(file, 256)
for i := int64(1); i <= 10000; i++ {
builder.Add(i, i*100, 100)
}
rootOffset, _ := builder.Build()
file.Close()
file, _ = os.Open("bench_foreach.sst")
defer file.Close()
mmapData, _ := mmap.Map(file, mmap.RDONLY, 0)
defer mmapData.Unmap()
reader := NewBTreeReader(mmapData, rootOffset)
b.ResetTimer()
for b.Loop() {
count := 0
reader.ForEach(func(key int64, offset int64, size int32) bool {
count++
return true
})
}
}
// BenchmarkBTreeForEachEarlyTermination 性能测试:提前终止
func BenchmarkBTreeForEachEarlyTermination(b *testing.B) {
file, _ := os.Create("bench_foreach_early.sst")
defer os.Remove("bench_foreach_early.sst")
builder := NewBTreeBuilder(file, 256)
for i := int64(1); i <= 100000; i++ {
builder.Add(i, i*100, 100)
}
rootOffset, _ := builder.Build()
file.Close()
file, _ = os.Open("bench_foreach_early.sst")
defer file.Close()
mmapData, _ := mmap.Map(file, mmap.RDONLY, 0)
defer mmapData.Unmap()
reader := NewBTreeReader(mmapData, rootOffset)
b.ResetTimer()
for b.Loop() {
count := 0
reader.ForEach(func(key int64, offset int64, size int32) bool {
count++
return count < 10 // 只读取前 10 个
})
}
}
// BenchmarkBTreeGetAllKeys vs ForEach 对比
func BenchmarkBTreeGetAllKeys(b *testing.B) {
file, _ := os.Create("bench_getall.sst")
defer os.Remove("bench_getall.sst")
builder := NewBTreeBuilder(file, 256)
for i := int64(1); i <= 10000; i++ {
builder.Add(i, i*100, 100)
}
rootOffset, _ := builder.Build()
file.Close()
file, _ = os.Open("bench_getall.sst")
defer file.Close()
mmapData, _ := mmap.Map(file, mmap.RDONLY, 0)
defer mmapData.Unmap()
reader := NewBTreeReader(mmapData, rootOffset)
b.ResetTimer()
for b.Loop() {
_ = reader.GetAllKeys()
}
}

View File

@@ -274,6 +274,46 @@ func (idx *SecondaryIndex) GetMetadata() IndexMetadata {
return idx.metadata
}
// ForEach 升序迭代所有索引条目
// callback 返回 false 时停止迭代,支持提前终止
// 注意只能迭代已持久化的数据B+Tree不包括内存中未持久化的数据
func (idx *SecondaryIndex) ForEach(callback IndexEntryCallback) error {
idx.mu.RLock()
defer idx.mu.RUnlock()
if !idx.ready {
return fmt.Errorf("index not ready")
}
// 只支持 B+Tree 格式的索引
if !idx.useBTree || idx.btreeReader == nil {
return fmt.Errorf("ForEach only supports B+Tree format indexes")
}
idx.btreeReader.ForEach(callback)
return nil
}
// ForEachDesc 降序迭代所有索引条目
// callback 返回 false 时停止迭代,支持提前终止
// 注意只能迭代已持久化的数据B+Tree不包括内存中未持久化的数据
func (idx *SecondaryIndex) ForEachDesc(callback IndexEntryCallback) error {
idx.mu.RLock()
defer idx.mu.RUnlock()
if !idx.ready {
return fmt.Errorf("index not ready")
}
// 只支持 B+Tree 格式的索引
if !idx.useBTree || idx.btreeReader == nil {
return fmt.Errorf("ForEachDesc only supports B+Tree format indexes")
}
idx.btreeReader.ForEachDesc(callback)
return nil
}
// NeedsUpdate 检查是否需要更新
func (idx *SecondaryIndex) NeedsUpdate(currentMaxSeq int64) bool {
idx.mu.RLock()

View File

@@ -530,6 +530,55 @@ func (r *IndexBTreeReader) GetMetadata() IndexMetadata {
}
}
// IndexEntryCallback 索引条目回调函数
// 参数value 字段值seqs 对应的 seq 列表
// 返回true 继续迭代false 停止迭代
type IndexEntryCallback func(value string, seqs []int64) bool
// ForEach 升序迭代所有索引条目
// callback 返回 false 时停止迭代,支持提前终止
func (r *IndexBTreeReader) ForEach(callback IndexEntryCallback) {
r.btree.ForEach(func(key int64, dataOffset int64, dataSize int32) bool {
// 读取数据块(零拷贝)
if dataOffset+int64(dataSize) > int64(len(r.mmap)) {
return false // 数据越界,停止迭代
}
binaryData := r.mmap[dataOffset : dataOffset+int64(dataSize)]
// 解码二进制数据
value, seqs, err := decodeIndexEntry(binaryData)
if err != nil {
return false // 解码失败,停止迭代
}
// 调用用户回调
return callback(value, seqs)
})
}
// ForEachDesc 降序迭代所有索引条目
// callback 返回 false 时停止迭代,支持提前终止
func (r *IndexBTreeReader) ForEachDesc(callback IndexEntryCallback) {
r.btree.ForEachDesc(func(key int64, dataOffset int64, dataSize int32) bool {
// 读取数据块(零拷贝)
if dataOffset+int64(dataSize) > int64(len(r.mmap)) {
return false // 数据越界,停止迭代
}
binaryData := r.mmap[dataOffset : dataOffset+int64(dataSize)]
// 解码二进制数据
value, seqs, err := decodeIndexEntry(binaryData)
if err != nil {
return false // 解码失败,停止迭代
}
// 调用用户回调
return callback(value, seqs)
})
}
// Close 关闭读取器
func (r *IndexBTreeReader) Close() error {
if r.mmap != nil {

338
query.go
View File

@@ -5,6 +5,8 @@ import (
"fmt"
"maps"
"reflect"
"slices"
"sort"
"strings"
)
@@ -357,9 +359,13 @@ func Or(exprs ...Expr) Expr {
}
type QueryBuilder struct {
conds []Expr
fields []string // 要选择的字段nil 表示选择所有字段
table *Table
conds []Expr
fields []string // 要选择的字段nil 表示选择所有字段
table *Table
orderBy string // 排序字段,仅支持 "_seq" 或索引字段
orderDesc bool // 是否降序排序
offset int // 跳过的记录数
limit int // 返回的最大记录数0 表示无限制
}
func newQueryBuilder(table *Table) *QueryBuilder {
@@ -470,12 +476,123 @@ func (qb *QueryBuilder) NotNull(field string) *QueryBuilder {
return qb.where(NotNull(field))
}
// OrderBy 设置排序字段(升序)
// 仅支持 "_seq" 或有索引的字段,使用其他字段会返回错误
func (qb *QueryBuilder) OrderBy(field string) *QueryBuilder {
qb.orderBy = field
qb.orderDesc = false
return qb
}
// OrderByDesc 设置排序字段(降序)
// 仅支持 "_seq" 或有索引的字段,使用其他字段会返回错误
func (qb *QueryBuilder) OrderByDesc(field string) *QueryBuilder {
qb.orderBy = field
qb.orderDesc = true
return qb
}
// Offset 设置跳过的记录数
// 用于分页查询,跳过前 n 条记录
func (qb *QueryBuilder) Offset(n int) *QueryBuilder {
if n < 0 {
n = 0
}
qb.offset = n
return qb
}
// Limit 设置返回的最大记录数
// 用于分页查询,最多返回 n 条记录
// n = 0 表示无限制
func (qb *QueryBuilder) Limit(n int) *QueryBuilder {
if n < 0 {
n = 0
}
qb.limit = n
return qb
}
// Paginate 执行分页查询并返回结果、总记录数和错误
// page: 页码,从 1 开始
// pageSize: 每页记录数
// 返回值:
// - rows: 当前页的数据
// - total: 满足条件的总记录数(用于计算总页数)
// - err: 错误信息
//
// 注意:此方法会执行两次查询,第一次获取总数,第二次获取分页数据
func (qb *QueryBuilder) Paginate(page, pageSize int) (rows *Rows, total int, err error) {
if page < 1 {
page = 1
}
if pageSize < 0 {
pageSize = 0
}
// 1. 先获取总记录数(不应用分页)
// 创建一个新的 QueryBuilder 副本用于计数
countQb := &QueryBuilder{
conds: qb.conds,
fields: qb.fields,
table: qb.table,
orderBy: "", // 计数不需要排序
offset: 0, // 计数不应用分页
limit: 0,
}
countRows, err := countQb.Rows()
if err != nil {
return nil, 0, err
}
defer countRows.Close()
// 计算总数
total = countRows.Len()
// 2. 执行分页查询
qb.offset = (page - 1) * pageSize
qb.limit = pageSize
rows, err = qb.Rows()
if err != nil {
return nil, total, err
}
return rows, total, nil
}
// validateOrderBy 验证排序字段是否有效
func (qb *QueryBuilder) validateOrderBy() error {
if qb.orderBy == "" {
return nil // 没有设置排序,无需验证
}
// 允许使用 _seq
if qb.orderBy == "_seq" {
return nil
}
// 检查该字段是否有索引
if _, exists := qb.table.indexManager.GetIndex(qb.orderBy); exists {
return nil
}
// 不支持的字段
return fmt.Errorf("OrderBy only supports '_seq' or indexed fields, field '%s' is not indexed", qb.orderBy)
}
// Rows 返回所有匹配的数据(游标模式 - 惰性加载)
func (qb *QueryBuilder) Rows() (*Rows, error) {
if qb.table == nil {
return nil, fmt.Errorf("table is nil")
}
// 验证排序字段
if err := qb.validateOrderBy(); err != nil {
return nil, err
}
rows := &Rows{
schema: qb.table.schema,
fields: qb.fields,
@@ -484,6 +601,11 @@ func (qb *QueryBuilder) Rows() (*Rows, error) {
visited: make(map[int64]bool),
}
// 如果设置了排序,使用排序后的结果集
if qb.orderBy != "" {
return qb.rowsWithOrder(rows)
}
// 尝试使用索引优化查询
// 检查是否有可以使用索引的 Eq 条件
indexField, indexValue := qb.findIndexableCondition()
@@ -570,6 +692,9 @@ func (qb *QueryBuilder) rowsWithIndex(rows *Rows, indexField string, indexValue
}
}
// 应用 offset 和 limit
rows.cachedRows = qb.applyOffsetLimit(rows.cachedRows)
// 使用缓存模式
rows.cached = true
rows.cachedIndex = -1
@@ -577,6 +702,194 @@ func (qb *QueryBuilder) rowsWithIndex(rows *Rows, indexField string, indexValue
return rows, nil
}
// rowsWithOrder 使用排序返回数据
func (qb *QueryBuilder) rowsWithOrder(rows *Rows) (*Rows, error) {
if qb.orderBy == "_seq" {
// 按 _seq 排序
return qb.rowsOrderBySeq(rows)
}
// 按索引字段排序
return qb.rowsOrderByIndex(rows, qb.orderBy)
}
// rowsOrderBySeq 按 _seq 排序返回数据
func (qb *QueryBuilder) rowsOrderBySeq(rows *Rows) (*Rows, error) {
// 收集所有 seq从所有数据源
seqList := []int64{}
// 1. 从 Active MemTable 收集
activeMemTable := qb.table.memtableManager.GetActive()
if activeMemTable != nil {
seqList = append(seqList, activeMemTable.Keys()...)
}
// 2. 从 Immutable MemTables 收集
immutables := qb.table.memtableManager.GetImmutables()
for _, immutable := range immutables {
seqList = append(seqList, immutable.MemTable.Keys()...)
}
// 3. 从 SST 文件收集
sstReaders := qb.table.sstManager.GetReaders()
for _, reader := range sstReaders {
seqList = append(seqList, reader.GetAllKeys()...)
}
// 去重(使用 map
seqMap := make(map[int64]bool)
uniqueSeqs := []int64{}
for _, seq := range seqList {
if !seqMap[seq] {
seqMap[seq] = true
uniqueSeqs = append(uniqueSeqs, seq)
}
}
// 排序
if qb.orderDesc {
// 降序
sort.Slice(uniqueSeqs, func(i, j int) bool {
return uniqueSeqs[i] > uniqueSeqs[j]
})
} else {
// 升序
slices.Sort(uniqueSeqs)
}
// 按排序后的 seq 获取数据
rows.cachedRows = make([]*SSTableRow, 0, len(uniqueSeqs))
for _, seq := range uniqueSeqs {
row, err := qb.table.Get(seq)
if err != nil {
continue // 跳过获取失败的记录
}
// 检查是否匹配过滤条件
if qb.Match(row.Data) {
rows.cachedRows = append(rows.cachedRows, row)
}
}
// 应用 offset 和 limit
rows.cachedRows = qb.applyOffsetLimit(rows.cachedRows)
// 使用缓存模式
rows.cached = true
rows.cachedIndex = -1
return rows, nil
}
// rowsOrderByIndex 按索引字段排序返回数据
//
// 实现策略:
// 1. 使用 ForEach/ForEachDesc 从索引收集所有 (value, seqs) 对
// 2. 按字段值(而非哈希)对这些对进行排序
// 3. 按排序后的顺序获取数据
//
// 注意:虽然使用了索引,但需要在内存中排序所有索引条目。
// 对于大量唯一值的字段,内存开销可能较大。
func (qb *QueryBuilder) rowsOrderByIndex(rows *Rows, indexField string) (*Rows, error) {
// 获取索引
idx, exists := qb.table.indexManager.GetIndex(indexField)
if !exists {
return nil, fmt.Errorf("index on field %s not found", indexField)
}
// 检查索引是否准备就绪
if !idx.IsReady() {
return nil, fmt.Errorf("index on field %s is not ready", indexField)
}
// 用于收集索引条目的结构
type indexEntry struct {
value string
seqs []int64
}
// 收集所有索引条目
entries := []indexEntry{}
err := idx.ForEach(func(value string, seqs []int64) bool {
// 复制 seqs 避免引用问题
seqsCopy := make([]int64, len(seqs))
copy(seqsCopy, seqs)
entries = append(entries, indexEntry{
value: value,
seqs: seqsCopy,
})
return true
})
if err != nil {
return nil, fmt.Errorf("failed to iterate index: %w", err)
}
// 按字段值排序(而非哈希)
if qb.orderDesc {
// 降序
sort.Slice(entries, func(i, j int) bool {
return entries[i].value > entries[j].value
})
} else {
// 升序
sort.Slice(entries, func(i, j int) bool {
return entries[i].value < entries[j].value
})
}
// 按排序后的顺序收集所有 seq
allSeqs := []int64{}
for _, entry := range entries {
allSeqs = append(allSeqs, entry.seqs...)
}
// 根据 seq 列表获取数据
rows.cachedRows = make([]*SSTableRow, 0, len(allSeqs))
for _, seq := range allSeqs {
row, err := qb.table.Get(seq)
if err != nil {
continue // 跳过获取失败的记录
}
// 检查是否匹配所有其他条件
if qb.Match(row.Data) {
rows.cachedRows = append(rows.cachedRows, row)
}
}
// 应用 offset 和 limit
rows.cachedRows = qb.applyOffsetLimit(rows.cachedRows)
// 使用缓存模式
rows.cached = true
rows.cachedIndex = -1
return rows, nil
}
// applyOffsetLimit 应用 offset 和 limit 到结果集
func (qb *QueryBuilder) applyOffsetLimit(rows []*SSTableRow) []*SSTableRow {
// 如果没有设置 offset 和 limit直接返回
if qb.offset == 0 && qb.limit == 0 {
return rows
}
// 应用 offset
if qb.offset > 0 {
if qb.offset >= len(rows) {
return []*SSTableRow{}
}
rows = rows[qb.offset:]
}
// 应用 limit
if qb.limit > 0 && qb.limit < len(rows) {
rows = rows[:qb.limit]
}
return rows
}
// First 返回第一个匹配的数据
func (qb *QueryBuilder) First() (*Row, error) {
rows, err := qb.Rows()
@@ -697,6 +1010,10 @@ type Rows struct {
cached bool
cachedRows []*SSTableRow
cachedIndex int // 缓存模式下的迭代位置
// 分页状态(惰性模式)
skippedCount int // 已跳过的记录数(用于 offset
returnedCount int // 已返回的记录数(用于 limit
}
// memtableIterator 包装 MemTable 的迭代器
@@ -843,8 +1160,21 @@ func (r *Rows) next() bool {
continue
}
// 应用 offset跳过前 N 条记录
if r.qb.offset > 0 && r.skippedCount < r.qb.offset {
r.skippedCount++
r.visited[minSeq] = true
continue
}
// 应用 limit达到返回上限后停止
if r.qb.limit > 0 && r.returnedCount >= r.qb.limit {
return false
}
// 找到匹配的记录
r.visited[minSeq] = true
r.returnedCount++
r.currentRow = &Row{schema: r.schema, fields: r.fields, inner: row}
return true
}
@@ -927,7 +1257,7 @@ func (r *Rows) Data() []map[string]any {
// - 如果目标是结构体/指针:只扫描第一行
func (r *Rows) Scan(value any) error {
rv := reflect.ValueOf(value)
if rv.Kind() != reflect.Ptr {
if rv.Kind() != reflect.Pointer {
return fmt.Errorf("scan target must be a pointer")
}

View File

@@ -1140,6 +1140,18 @@ func (r *SSTableReader) GetAllKeys() []int64 {
return r.btReader.GetAllKeys()
}
// ForEach 升序迭代所有 key-offset-size 对
// callback 返回 false 时停止迭代,支持提前终止
func (r *SSTableReader) ForEach(callback KeyCallback) {
r.btReader.ForEach(callback)
}
// ForEachDesc 降序迭代所有 key-offset-size 对
// callback 返回 false 时停止迭代,支持提前终止
func (r *SSTableReader) ForEachDesc(callback KeyCallback) {
r.btReader.ForEachDesc(callback)
}
// Close 关闭读取器
func (r *SSTableReader) Close() error {
if r.mmap != nil {

View File

@@ -410,14 +410,40 @@ func (t *Table) insertSingle(data map[string]any) error {
return NewError(ErrCodeSchemaValidationFailed, err)
}
// 2. 生成 _seq
// 2. 类型转换:将数据转换为 Schema 定义的类型
// 这样可以确保写入时的类型与 Schema 一致(例如将 int64 转换为 time.Time
convertedData := make(map[string]any, len(data))
for key, value := range data {
// 跳过 nil 值
if value == nil {
convertedData[key] = nil
continue
}
// 获取字段定义
field, err := t.schema.GetField(key)
if err != nil {
// 字段不在 Schema 中,保持原值
convertedData[key] = value
continue
}
// 使用 Schema 的类型转换
converted, err := convertValue(value, field.Type)
if err != nil {
return NewErrorf(ErrCodeSchemaValidationFailed, "convert field %s: %v", key, err)
}
convertedData[key] = converted
}
// 3. 生成 _seq
seq := t.seq.Add(1)
// 3. 添加系统字段
// 4. 添加系统字段
row := &SSTableRow{
Seq: seq,
Time: time.Now().UnixNano(),
Data: data,
Data: convertedData,
}
// 3. 序列化(使用二进制格式,保留类型信息)
@@ -952,6 +978,16 @@ func (t *Table) ListIndexes() []string {
return t.indexManager.ListIndexes()
}
// GetIndex 获取指定字段的索引
func (t *Table) GetIndex(field string) (*SecondaryIndex, bool) {
return t.indexManager.GetIndex(field)
}
// BuildIndexes 构建所有索引
func (t *Table) BuildIndexes() error {
return t.indexManager.BuildAll()
}
// GetIndexMetadata 获取索引元数据
func (t *Table) GetIndexMetadata() map[string]IndexMetadata {
return t.indexManager.GetIndexMetadata()