[博客翻译]精调与隐私:Corgea的LLM如何提升企业应用安全 我们正在研发一款人工智能应用安全工程师,帮助开发者自动识别并修复不安全的代码。通过我们的技术,能减少30%的安全性静态分析(SAST)发现的误报,并加速修复过程约80%。为了服务大型企业,我们精心调整了一个模型,确保其既安全又私密。为什么我们自定义调优LLM?在严格监管的行业,企业对数据驻留、隐私和安全有严格要求。它们往往需要私有云部署,避免依赖可能暴露数据风险的第三方LLM。我们的定制... 由 openoker发布于 2024-09-17 12:42:33 LLM安全企业应用自动化修复 阅读次数 104
[博客翻译]挑战人工智能的神话 在数字世界中,数据中心的庞然大物和光纤电缆构成了我们想象的基础,而这些想象又深受提供基于此基础设施服务的公司影响。由此诞生了一种技术神话,它倾向于提供简单易懂的解释,却牺牲了准确性。科技产品的营销者拥有巨大的影响力,他们可能通过复杂性来隐藏产品难题,或者通过过度简化来磨平棱角。设计师在塑造这种神话的过程中扮演关键角色,尽管并非总是出于恶意,营销行业本身就需要这样的神话来帮助理解技术。 人工智能的神话多种多样,它们并非全然负面,但持续塑造着我们对AI的认知。比如控制神话,强调生成式AI的可控性,但实际上,用户... 由 openoker发布于 2024-08-31 13:08:51 技术神话人工智能LLM 阅读次数 144
[博客翻译]克服当前大语言模型的局限 大语言模型(LLM)已经风光了一段时间,但超越喧嚣,它们面临着严重的限制:幻觉、缺乏置信度估计以及缺乏引用。幻觉是指LLM生成看似合理甚至有说服力的内容,但实际上毫无根据或错误。置信度估计为预测分配一个置信分数,有助于判断其准确性。错误答案的高置信分数比完全没有分数更糟糕…… 由 openoker发布于 2024-07-18 18:09:45 幻觉置信度估计LLM 阅读次数 149
[博客翻译]命令行上的语言模型探索之旅 上周,我在为期六周的“掌握大型语言模型:开发者与数据科学家会议”上做了一场演讲,主题是如何从命令行访问和利用大型语言模型。我的重点是介绍我开发的名为LLM的Python命令行工具,以及如何使用它及其插件来探索这些模型,并将其用于实际任务。 演讲视频被录制并上传到了YouTube,我还将其转换成了带有详细注释和屏幕截图的演示文稿(没有幻灯片)。LLM是一个工具,旨在帮助用户直接在终端中运行大型语言模型提示。你可以通过pipx、pip或brew安装它... 由 openoker发布于 2024-06-25 12:04:47 命令行大型语言模型LLM命令提示符 阅读次数 136