周三,纽约的一位应用开发者 Isaac Gemal 推出了一个名为 WikiTok 的新网站。用户可以像使用视频分享应用 TikTok 那样,通过垂直滑动浏览无限的 Wikipedia 文章摘要。
这是一种巧妙的方式,让人们可以随机发现有趣的信息、学习新知识,在无聊时不必求助于那些令人上瘾的算法社交媒体应用。诚然,WikiTok 本身也具有一定的沉浸性,但它没有侵入性的算法来追踪用户,也不会推送lowest-common-denominator(最低共同标准)的内容。它的魅力在于你永远不知道下一刻会出现什么内容。
WikiTok 可在移动端和桌面浏览器上运行,通过 Wikipedia API 向访问者提供随机的维基百科文章列表,以垂直滚动的方式呈现。尽管其名字让人联想到 TikTok,但目前并不包含视频内容。每个条目都配有相应文章中的图片。如果看到感兴趣的内容,可以点击"阅读更多",相关的完整 Wikipedia 页面就会在浏览器中打开。
目前,信息流完全随机,Gemal 正在抵制那些建议根据用户兴趣自动定制文章流的呼声。
Gemal 告诉 Ars:"很多人给我发消息,甚至在我的 GitHub 上提出要求添加一些疯狂的 WikiTok 算法。我不得不坚持立场,表示我们的日常生活已经被无情且不透明的算法所统治,为什么我们不能在这个世界上有一个没有算法的小角落呢?"
由于 Wikipedia 涵盖的知识范围广泛,在 WikiTok 上遇到的主题令人叹为观止。
在最近一次浏览 WikiTok 时,我遇到了各种主题,如 SX-Window (Sharp X68000 系列电脑的图形用户界面)、Xantocillin (首个被发现含有异氰基官能团的天然产物)、Lorenzo Ghiberti (佛罗伦萨的意大利文艺复兴时期雕塑家)、德克萨斯州的 William Wheeler House,以及德国克劳特海姆市——这些都是我在开始浏览前从未听说过的。
WikiTok 的诞生过程
WikiTok 的最初想法来自开发者 Tyler Angert,他在周一晚上发推文说:"疯狂的项目想法:在一个可滚动的页面上展示所有的维基百科内容。"Bloomberg Beta 风投 James Cham 回复说:"更好的是,基于你接下来感兴趣的内容的无限滚动维基百科页面?"随后 Angert 在后续帖子中创造了"WikiTok"这个名字。
第二天凌晨 12:28,作家 Grant Slatton 转发了这个关于 WikiTok 的讨论,这就是 Gemal 参与进来的契机。他告诉 Ars:"我从 Slatton 的转发中看到了这个。我立即想到,'我可以建立一个最小可行产品,这可能会火起来。'"
Gemal 在凌晨 12:30 开始他的项目,在 Anthropic 的 Claude 和 Cursor 等 AI 编码工具的帮助下,他在凌晨 2 点完成了原型,并在 X 上发布了结果。后来有人在 ycombinator 的 Hacker News 上宣布了 WikiTok,它登上了该网站每日新闻项目的榜首。
Gemal 告诉 Ars:"整个项目只有几百行代码,其中大部分是 Claude 写的。AI 帮助我快速发布,并抓住了最初病毒式传播的推文中对可滚动维基百科的需求。"
Gemal 将 WikiTok 的代码发布在 GitHub 上,任何人都可以修改或为项目做出贡献。目前,这个网络应用支持 14 种语言,提供文章预览,并可在桌面和移动浏览器上分享文章。随着贡献者的加入,可能会有新功能出现。它基于包括 React 18、TypeScript、Tailwind CSS 和 Vite 在内的技术栈。
到目前为止,他坚持着自己的愿景:提供一种免费享受 Wikipedia 而不被追踪和定向推送的方式。Gemal 告诉我们:"我没有计划做什么疯狂的货币化超级计算 TikTok 算法。这个项目如果说有什么特点的话,那就是反算法。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。