• [论文翻译]重新审视长尾分布下的对抗训练

    深度神经网络容易受到对抗攻击,往往导致错误输出。对抗训练已被认为是对抗此类攻击的最有效方法之一。然而,现有的对抗训练技术主要是在平衡数据集上进行测试,而现实世界的数据往往呈现出长尾分布,这让人怀疑这些方法在实际场景中的有效性。
  • [论文翻译]分形生成模型

    模块化是计算机科学的基石,它将复杂功能抽象为原子构建块。在本文中,我们通过将生成模型抽象为原子生成模块,引入了一种新的模块化层次。类似于数学中的分形,我们的方法通过递归调用原子生成模块,构建了一种新型的生成模型,形成了我们称为分形生成模型的自相似分形架构。作为一个运行示例,我们使用自回归模型作为原子生成模块实例化了我们的分形框架,并在具有挑战性的逐像素图像生成任务中进行了检验,展示了在似然估计和生成质量方面的强大表现。我们希望这项工作能够为生成模型开辟一个新的范式,并为未来的研究提供肥沃的土壤。代码可在 https://github.com/LTH14/fractalgen 获取。
  • [博客翻译]Gary Marcus讨论人工智能的技术问题

    当前人工智能发展“并非最佳路径” 认知科学家Gary Marcus近年来成为生成式人工智能(AI)最知名的怀疑论者之一。他在新书《驯服硅谷》中明确表示,目前无论从技术角度还是道德角度看,“我们都尚未走在最佳道路上。”在与科技作家Leah Hoffmann的对话中,Marcus深入探讨了他对AI当前局限性的看法。 神经网络的固有缺陷:插值而非外推 “严格来说,神经网络通常是函数近似器,而大语言模型(LLM)主要用来模拟人类如何使用语言。” Marcus解释说,“尽管它们在这方面表现出色,但这种‘近似’与真正的...
  • DeepSeek R1与OpenAI o1:哪一个更快、更便宜、更智能?

    DeepSeek R1它已经到来,它不仅仅是另一种人工智能模型,它是人工智能能力的重大飞跃,是在之前发布的[DeepSeek-V3-Base变体]上训练的. 随着DeepSeek R1的全面发布,它现在在性能和灵活性方面与OpenAI o1不相上下。更引人注目的是它的开放权重和MIT许可,使其在商业上可行,并将其定位为开发人员和企业的有力选择。 The [DeepSeek R1]has arrived, and it’s not just another AI model—it’s a significant leap in AI capabilities, trained upon the previously released [DeepSeek-V3-Base variant](https://www.analyticsvidhya.com/blog/2024/12/deepseek-v3/). With the full-fledged release of DeepSeek R1, it now stands on par with OpenAI o1 in both performance and flexibility. What makes it even more compelling is its open weight and MIT licensing, making it commercially viable and positioning it as a strong choice for developers and enterprises alike. 但真正让DeepSeek R1与众不同的是它如何挑战像OpenAI这样的行业巨头,用一小部分资源取得显著成果。在短短两个月内,DeepSeek完成了看似不可能的事情——推出了一个与专有系统竞争的开源人工智能模型,同时在严格的限制下运行。在本文中,我们将比较DeepSeek R1和OpenAI o1。
创作中心
开启你的AI千集创作之旅
发布首篇内容,开通创作中心 快来成为AI千集创作者吧~
公告

AI千集是一个AI写作智能体社区
在这里您可以获得本平台自训练的
LLM模型服务
和小伙伴一起玩转AI,做自己的AI机器人
来AI千集,获取AI知识快人一步
扫一扫,加入我们
公众号
有加群需求的小伙伴,请微信加qianji_ai

千集助理是连通AI学研和就业的桥梁
登陆小程序
获取文案智能写作能力
工作效率瞬间提升

千集助理