Releases: MrSibe/KnowNote
Releases · MrSibe/KnowNote
1.1.0
🎉 KnowNote v1.1.0
✨ 新功能
思维导图功能
- ✅ 全新的思维导图系统,支持独立窗口展示
- ✅ 支持多种布局模式切换
- ✅ 思维导图导出为图片功能(自动排除控制元素和背景)
- ✅ i18n 国际化支持,思维导图提示支持多语言
Items 管理系统
- ✅ 统一的 Items 系统,支持拖放排序
- ✅ 右键菜单支持重命名和删除操作
- ✅ 改进的拖放交互体验
🐛 Bug 修复
- 修复OpenAI嵌入模型1024维度的支持 (#14)
- 修复Ollama两种Fetch model API的支持 (#12)
- 修复添加到笔记编辑器无法打开的问题 (#15)
- 修复思维导图组件的 TypeScript 类型错误
- 修复 ItemService 和 MindMapService 的 ESLint 代码规范问题
🔧 技术改进
- 新增 ItemService 和 MindMapService 服务层
- 改进 AI Provider 架构
- 新增思维导图窗口管理
- 数据库架构优化(新增 3 个迁移)
📝 完整更新日志
从 v1.0.6 到 v1.1.0 的所有改动详见:v1.0.6...v1.1.0
完整变更列表: v1.0.6...v1.1.0
1.0.6
KnowNote v1.0.6 Release Notes
发布日期:2025年12月18日
🎯 重要更新
🔧 Provider 架构重构
本次版本完成了 Provider 系统的重大升级,迁移到 Vercel AI SDK v5 架构:
新增 Provider 支持
- 智谱 AI (GLM):新增智谱 AI 作为内置 Provider,支持 glm-4-plus 聊天模型和 embedding-3 嵌入模型
- Ollama v2:升级到 ollama-ai-provider-v2,修复了 API 端点和模型标准化问题
- qwen-ai-provider:集成通义千问社区 Provider
- @ai-sdk/deepseek:集成 DeepSeek 官方 Provider
技术改进
- 代码大幅优化:删除了约 500 行废弃代码
- 统一了所有 Provider 的实现方式
- 修复了嵌入模型解析逻辑,确保与前端配置的一致性
🧠 推理过程支持
为 DeepSeek Reasoner 等支持推理的模型提供了实时推理过程显示:
- 基于流式响应实时显示模型的思考过程
- 推理结束后自动折叠,保持界面整洁
- 支持在推理过程中手动切换展开/折叠状态
💻 平台支持增强
- Linux 平台:新增 Linux 平台的设置按钮支持
- 界面优化:改进了滚动条样式和下拉菜单的视觉体验
📝 文档更新
- 更新了 README,增加了对 LLM 服务支持的详细说明
- 改进了国际化支持,新增智谱 AI 相关的中英文翻译
🛠️ 技术细节
依赖更新
- 新增
ai和@ai-sdk/openai依赖 - 集成多个社区和官方 AI SDK Provider
- 升级了相关依赖到最新稳定版本
代码优化
- 重构了聊天处理器逻辑,适配 AI SDK v5 的流式协议
- 优化了 IPC 消息格式,提升了前后端通信效率
- 改进了类型定义,增强了 TypeScript 类型安全
🐛 问题修复
- 修复了 Ollama API 端点配置问题(从 /models 改为 /api/tags)
- 修复了嵌入模型选择逻辑,现在会优先使用配置文件中的模型设置
- 修复了推理内容组件的状态管理问题
📦 安装与升级
新用户
访问 GitHub Releases 下载对应平台的安装包。
现有用户升级
- Windows:应用会自动检查更新并提示安装
- macOS:支持自动更新功能
- Linux:请手动下载最新版本安装包进行升级
🔮 下一步计划
- 继续优化 Provider 系统的性能和稳定性
- 支持更多 AI Provider(如 Kimi、百川等)
- 改进推理过程的显示效果
- 增加文档导入格式的支持
🙏 致谢
感谢所有为本次版本做出贡献的开发者和用户!特别感谢 Vercel AI SDK 团队提供的优秀工具链。
完整更新日志:查看 GitHub Commits
如遇到问题,请在 GitHub Issues 中反馈。
v1.0.5 - Ollama Support & Provider System Overhaul
🚀 KnowNote v1.0.5
This release introduces local LLM support with Ollama, a complete provider system architecture overhaul, and various UI improvements.
✨ Major Features
🤖 Ollama Local LLM Provider
- Run AI models completely offline with Ollama integration
- Support for both chat and embedding capabilities
- OpenAI-compatible API implementation for seamless integration
- Default endpoint:
http://localhost:11434/v1 - Flexible configuration with custom server address support
🏗️ Provider System Architecture Overhaul
- Capability-based design: Modular chat, embedding, rerank, and image generation capabilities
- Config-driven architecture: Simplified provider registration and management
- Unified OpenAI-compatible implementation: Reduced code duplication
- Registry pattern with
ProviderDescriptorandProviderRegistry - Cleaner separation between configuration and runtime logic
🔧 Improvements
Provider Management
- ✅ Fix model name truncation issue - now properly preserves version tags
- Examples:
qwen3:0.6b,gpt-4o-mini:2024-07-18,llama3.2:latest
- Examples:
- ✅ Unified provider URL configuration naming across all providers
- ✅ Enhanced custom provider support with Base URL configuration
- ✅ Improved error handling and validation
UI/UX Enhancements
- 🎨 Custom scrollbar styling for dropdown menus
- 🔧 Improved provider settings panel layout
- 📋 Better model selection interface
🐛 Bug Fixes
- Fixed model ID parsing to support colon-separated version tags
- Improved provider configuration persistence
- Enhanced error messages for better debugging
📦 Technical Details
New Architecture Components
src/main/providers/
├── capabilities/ # Modular capability interfaces
│ ├── BaseProvider.ts
│ ├── ChatCapability.ts
│ ├── EmbeddingCapability.ts
│ ├── RerankCapability.ts
│ └── ImageGenerationCapability.ts
├── handlers/ # Protocol-specific implementations
│ ├── OpenAIChatHandler.ts
│ └── OpenAIEmbeddingHandler.ts
├── registry/ # Provider registration system
│ ├── ProviderDescriptor.ts
│ ├── ProviderRegistry.ts
│ └── builtinProviders.ts
└── base/
└── OpenAICompatibleProvider.ts
Code Changes
- 30 files changed: +1,422 insertions, -723 deletions
- Removed individual provider classes (DeepSeekProvider, KimiProvider, etc.)
- Centralized logic in
OpenAICompatibleProvider - Created reusable handler pattern for API communication
🎯 Supported Providers
| Provider | Chat | Embedding | Notes |
|---|---|---|---|
| Ollama | ✅ | ✅ | NEW - Local LLM runner |
| OpenAI | ✅ | ✅ | GPT-4, GPT-3.5, etc. |
| DeepSeek | ✅ | ✅ | DeepSeek-V3, DeepSeek-Chat |
| Qwen | ✅ | ✅ | Qwen-Max, Qwen-Plus |
| Kimi | ✅ | ❌ | Moonshot AI |
| SiliconFlow | ✅ | ✅ | Model aggregation platform |
📚 Getting Started with Ollama
Installation
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows: Download from https://ollama.comUsage
# Start Ollama service
ollama serve
# Download models
ollama pull qwen2.5:7b # Chat model
ollama pull nomic-embed-text # Embedding modelConfiguration in KnowNote
- Open Settings → Providers
- Select Ollama
- API Key: Enter any value (e.g.,
ollama) - Base URL: Keep default
http://localhost:11434/v1 - Click "Fetch Models" and select your downloaded models
- Enable the provider
🔄 Migration Notes
For Existing Users
- No breaking changes for existing provider configurations
- Model selections will be automatically preserved
- The architecture changes are internal and backward-compatible
For Developers
- Old provider classes (
OpenAIProvider,DeepSeekProvider, etc.) have been removed - All providers now use
OpenAICompatibleProvideras the base - Custom providers should implement capability interfaces
- See
src/main/providers/registry/builtinProviders.tsfor registration examples
🙏 Acknowledgments
Thanks to the Ollama team for creating an excellent local LLM runtime!
📝 Full Changelog
Commits included in this release:
fdf9062feat: add Ollama local LLM provider support (#7)9f26183style: add custom scrollbar styling to dropdown menus (#6)9e48198refactor: unify provider URL configuration naming6edf9d3refactor: restructure provider system with capability separation and config-driven architecture
Full Changelog: v1.0.4...v1.0.5
1.0.4
✨ 新功能
- 添加知识库和笔记面板的折叠/展开功能,支持更灵活的界面布局
- 在顶部标题栏添加折叠按钮,可以独立控制左右面板的显示/隐藏
- 折叠后自动保存面板宽度,展开时恢复原始宽度
- 中间面板自动扩展以充分利用空间
🔧 改进
- 移除消息列表的最大宽度限制,消息内容可以更好地利用可用空间
- 代码重构:统一使用 `shrink-0` 类名替代 `flex-shrink-0`,提升代码一致性
- 优化文字换行样式,改进长文本显示效果
📦 其他
- 版本号更新至 1.0.4
1.0.3
v1.0.3 chore: bump version to 1.0.3
v1.0.2
✨ 新功能
- 🔄 简化更新流程:点击按钮后自动下载并安装,无需二次操作
- 🌐 外部链接改为在系统默认浏览器中打开(官方网站、意见反馈)
🐛 Bug 修复
- 📌 修复版本号硬编码问题,现在从 package.json 动态获取
- 🎨 修复深色模式下图标不可见的问题
📝 完整变更日志
查看详细变更:v1.0.1...v1.0.2
1.0.1
v1.0.1 Release v1.0.1
1.0.0
chore: update GitHub repository links - Update electron-builder publish config to MrSibe/KnowNote - Update official website link in AboutSettings - Update feedback/issues link in AboutSettings