为什么做这个项目
2024 年以来,我发现自己越来越习惯把问题直接丢给 AI,而不是先自己想一想。遇到难题的第一反应从"让我想想"变成了"让我问问"。这种变化很舒服——但也让人不安。
"认知防锈"不是要否定 AI 工具的价值,而是提供一个简单的工具,让你能定期给自己的认知状态拍一张快照。不是为了证明什么,只是让趋势变得可见——因为看不见的东西,你不会在意。
怎么用
完成 20 道混合题型(逻辑推理 / 速算 / 词汇语义),每道题限时 40 秒。完成后你会得到一个认知活跃度评分(0-100)。分数越低越活跃。
单次测试的分数意义有限——真正的价值在于复测。两次测试之间隔 7 天以上,把分数连起来看趋势。
数据与隐私
我们不收集任何个人身份信息(没有 Cookie、没有用户 ID)。每次测试结果以匿名方式存储,仅用于生成全平台的统计分布图。你的个人历史记录保存在浏览器本地,不会上传。
后续计划
已上线
- • 自适应评估引擎(IRT + EAP 能力估计 + 最大信息量选题 + 维度轮换)
- • LLM 题目生成管线(DeepSeek + SSE 流式 + Redis 缓存 + 限频 + 调用日志)
- • 多语言题库(zh-CN 150 题 / en 148 题 / ja 146 题,覆盖 IRT -3.0 ~ +3.0)
- • 完整测试流程(计时/倒计时/中途保存恢复/过渡动画/Error Boundary)
- • 全平台统计与个人趋势(正态分布/百分位排名/AI分组/折线图/雷达图)
- • 分享与留存(OG 卡片/挑战分享/PWA/7天提醒/主题切换)
- • 多语言 UI(中文/English/日本語 + 语言切换器)
- • 基建优化(Redis 迁移/组件拆分/hydration 修复/构建验证)
近期
- • AI 出题接入测试流程——Pure AI / Hybrid / Adaptive+AI 三种模式
- • 题目质量实证校准——人工审核 + 统计筛选,确保 LLM 生成题目的有效性
- • 性能优化——SSE 超时处理、缓存命中率监控、生成延迟 p50/p95 跟踪
- • 测试流程 UX 打磨——自适应模式 UI 适配、难度显示、错题回顾
长期
- • Phase 2:微干预引擎——双 Agent(评测 + 教练)根据退化曲线定制每日训练计划
- • Phase 3:认知镜像——四 Agent 协作跨维度分析,揭示用户自己未察觉的认知盲区
- • Phase 4:认知防锈经济——雇主匹配、保险定价、去中心化认知信用生态