Skip to content

Releases: MrSibe/KnowNote

1.1.0

22 Dec 04:10

Choose a tag to compare

🎉 KnowNote v1.1.0

✨ 新功能

思维导图功能

  • ✅ 全新的思维导图系统,支持独立窗口展示
  • ✅ 支持多种布局模式切换
  • ✅ 思维导图导出为图片功能(自动排除控制元素和背景)
  • ✅ i18n 国际化支持,思维导图提示支持多语言

Items 管理系统

  • ✅ 统一的 Items 系统,支持拖放排序
  • ✅ 右键菜单支持重命名和删除操作
  • ✅ 改进的拖放交互体验

🐛 Bug 修复

  • 修复OpenAI嵌入模型1024维度的支持 (#14)
  • 修复Ollama两种Fetch model API的支持 (#12)
  • 修复添加到笔记编辑器无法打开的问题 (#15)
  • 修复思维导图组件的 TypeScript 类型错误
  • 修复 ItemService 和 MindMapService 的 ESLint 代码规范问题

🔧 技术改进

  • 新增 ItemService 和 MindMapService 服务层
  • 改进 AI Provider 架构
  • 新增思维导图窗口管理
  • 数据库架构优化(新增 3 个迁移)

📝 完整更新日志

从 v1.0.6 到 v1.1.0 的所有改动详见:v1.0.6...v1.1.0


完整变更列表: v1.0.6...v1.1.0

1.0.6

18 Dec 05:46

Choose a tag to compare

KnowNote v1.0.6 Release Notes

发布日期:2025年12月18日

🎯 重要更新

🔧 Provider 架构重构

本次版本完成了 Provider 系统的重大升级,迁移到 Vercel AI SDK v5 架构:

新增 Provider 支持

  • 智谱 AI (GLM):新增智谱 AI 作为内置 Provider,支持 glm-4-plus 聊天模型和 embedding-3 嵌入模型
  • Ollama v2:升级到 ollama-ai-provider-v2,修复了 API 端点和模型标准化问题
  • qwen-ai-provider:集成通义千问社区 Provider
  • @ai-sdk/deepseek:集成 DeepSeek 官方 Provider

技术改进

  • 代码大幅优化:删除了约 500 行废弃代码
  • 统一了所有 Provider 的实现方式
  • 修复了嵌入模型解析逻辑,确保与前端配置的一致性

🧠 推理过程支持

为 DeepSeek Reasoner 等支持推理的模型提供了实时推理过程显示:

  • 基于流式响应实时显示模型的思考过程
  • 推理结束后自动折叠,保持界面整洁
  • 支持在推理过程中手动切换展开/折叠状态

💻 平台支持增强

  • Linux 平台:新增 Linux 平台的设置按钮支持
  • 界面优化:改进了滚动条样式和下拉菜单的视觉体验

📝 文档更新

  • 更新了 README,增加了对 LLM 服务支持的详细说明
  • 改进了国际化支持,新增智谱 AI 相关的中英文翻译

🛠️ 技术细节

依赖更新

  • 新增 ai@ai-sdk/openai 依赖
  • 集成多个社区和官方 AI SDK Provider
  • 升级了相关依赖到最新稳定版本

代码优化

  • 重构了聊天处理器逻辑,适配 AI SDK v5 的流式协议
  • 优化了 IPC 消息格式,提升了前后端通信效率
  • 改进了类型定义,增强了 TypeScript 类型安全

🐛 问题修复

  • 修复了 Ollama API 端点配置问题(从 /models 改为 /api/tags)
  • 修复了嵌入模型选择逻辑,现在会优先使用配置文件中的模型设置
  • 修复了推理内容组件的状态管理问题

📦 安装与升级

新用户

访问 GitHub Releases 下载对应平台的安装包。

现有用户升级

  • Windows:应用会自动检查更新并提示安装
  • macOS:支持自动更新功能
  • Linux:请手动下载最新版本安装包进行升级

🔮 下一步计划

  • 继续优化 Provider 系统的性能和稳定性
  • 支持更多 AI Provider(如 Kimi、百川等)
  • 改进推理过程的显示效果
  • 增加文档导入格式的支持

🙏 致谢

感谢所有为本次版本做出贡献的开发者和用户!特别感谢 Vercel AI SDK 团队提供的优秀工具链。


完整更新日志:查看 GitHub Commits

如遇到问题,请在 GitHub Issues 中反馈。

v1.0.5 - Ollama Support & Provider System Overhaul

17 Dec 11:11

Choose a tag to compare

🚀 KnowNote v1.0.5

This release introduces local LLM support with Ollama, a complete provider system architecture overhaul, and various UI improvements.


✨ Major Features

🤖 Ollama Local LLM Provider

  • Run AI models completely offline with Ollama integration
  • Support for both chat and embedding capabilities
  • OpenAI-compatible API implementation for seamless integration
  • Default endpoint: http://localhost:11434/v1
  • Flexible configuration with custom server address support

🏗️ Provider System Architecture Overhaul

  • Capability-based design: Modular chat, embedding, rerank, and image generation capabilities
  • Config-driven architecture: Simplified provider registration and management
  • Unified OpenAI-compatible implementation: Reduced code duplication
  • Registry pattern with ProviderDescriptor and ProviderRegistry
  • Cleaner separation between configuration and runtime logic

🔧 Improvements

Provider Management

  • ✅ Fix model name truncation issue - now properly preserves version tags
    • Examples: qwen3:0.6b, gpt-4o-mini:2024-07-18, llama3.2:latest
  • ✅ Unified provider URL configuration naming across all providers
  • ✅ Enhanced custom provider support with Base URL configuration
  • ✅ Improved error handling and validation

UI/UX Enhancements

  • 🎨 Custom scrollbar styling for dropdown menus
  • 🔧 Improved provider settings panel layout
  • 📋 Better model selection interface

🐛 Bug Fixes

  • Fixed model ID parsing to support colon-separated version tags
  • Improved provider configuration persistence
  • Enhanced error messages for better debugging

📦 Technical Details

New Architecture Components

src/main/providers/
├── capabilities/          # Modular capability interfaces
│   ├── BaseProvider.ts
│   ├── ChatCapability.ts
│   ├── EmbeddingCapability.ts
│   ├── RerankCapability.ts
│   └── ImageGenerationCapability.ts
├── handlers/             # Protocol-specific implementations
│   ├── OpenAIChatHandler.ts
│   └── OpenAIEmbeddingHandler.ts
├── registry/            # Provider registration system
│   ├── ProviderDescriptor.ts
│   ├── ProviderRegistry.ts
│   └── builtinProviders.ts
└── base/
    └── OpenAICompatibleProvider.ts

Code Changes

  • 30 files changed: +1,422 insertions, -723 deletions
  • Removed individual provider classes (DeepSeekProvider, KimiProvider, etc.)
  • Centralized logic in OpenAICompatibleProvider
  • Created reusable handler pattern for API communication

🎯 Supported Providers

Provider Chat Embedding Notes
Ollama NEW - Local LLM runner
OpenAI GPT-4, GPT-3.5, etc.
DeepSeek DeepSeek-V3, DeepSeek-Chat
Qwen Qwen-Max, Qwen-Plus
Kimi Moonshot AI
SiliconFlow Model aggregation platform

📚 Getting Started with Ollama

Installation

# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows: Download from https://ollama.com

Usage

# Start Ollama service
ollama serve

# Download models
ollama pull qwen2.5:7b        # Chat model
ollama pull nomic-embed-text  # Embedding model

Configuration in KnowNote

  1. Open Settings → Providers
  2. Select Ollama
  3. API Key: Enter any value (e.g., ollama)
  4. Base URL: Keep default http://localhost:11434/v1
  5. Click "Fetch Models" and select your downloaded models
  6. Enable the provider

🔄 Migration Notes

For Existing Users

  • No breaking changes for existing provider configurations
  • Model selections will be automatically preserved
  • The architecture changes are internal and backward-compatible

For Developers

  • Old provider classes (OpenAIProvider, DeepSeekProvider, etc.) have been removed
  • All providers now use OpenAICompatibleProvider as the base
  • Custom providers should implement capability interfaces
  • See src/main/providers/registry/builtinProviders.ts for registration examples

🙏 Acknowledgments

Thanks to the Ollama team for creating an excellent local LLM runtime!


📝 Full Changelog

Commits included in this release:

  • fdf9062 feat: add Ollama local LLM provider support (#7)
  • 9f26183 style: add custom scrollbar styling to dropdown menus (#6)
  • 9e48198 refactor: unify provider URL configuration naming
  • 6edf9d3 refactor: restructure provider system with capability separation and config-driven architecture

Full Changelog: v1.0.4...v1.0.5

1.0.4

16 Dec 14:44

Choose a tag to compare

✨ 新功能

  • 添加知识库和笔记面板的折叠/展开功能,支持更灵活的界面布局
    • 在顶部标题栏添加折叠按钮,可以独立控制左右面板的显示/隐藏
    • 折叠后自动保存面板宽度,展开时恢复原始宽度
    • 中间面板自动扩展以充分利用空间

🔧 改进

  • 移除消息列表的最大宽度限制,消息内容可以更好地利用可用空间
  • 代码重构:统一使用 `shrink-0` 类名替代 `flex-shrink-0`,提升代码一致性
  • 优化文字换行样式,改进长文本显示效果

📦 其他

  • 版本号更新至 1.0.4

1.0.3

16 Dec 11:52

Choose a tag to compare

v1.0.3

chore: bump version to 1.0.3

v1.0.2

16 Dec 10:44

Choose a tag to compare

✨ 新功能

  • 🔄 简化更新流程:点击按钮后自动下载并安装,无需二次操作
  • 🌐 外部链接改为在系统默认浏览器中打开(官方网站、意见反馈)

🐛 Bug 修复

  • 📌 修复版本号硬编码问题,现在从 package.json 动态获取
  • 🎨 修复深色模式下图标不可见的问题

📝 完整变更日志

查看详细变更:v1.0.1...v1.0.2

1.0.1

16 Dec 09:45

Choose a tag to compare

v1.0.1

Release v1.0.1

1.0.0

16 Dec 03:42

Choose a tag to compare

chore: update GitHub repository links

- Update electron-builder publish config to MrSibe/KnowNote
- Update official website link in AboutSettings
- Update feedback/issues link in AboutSettings