• [博客翻译]堆溢出Llama.cpp到RCE

    本文将探讨如何通过利用Llama.cpp中的一个堆溢出漏洞,实现从堆溢出到远程代码执行的过程。这是一篇技术深度文章,旨在科普的方式呈现复杂的学术和技术细节。 介绍:Llama.cpp 的堆溢出问题 Llama.cpp简介 Llama.cpp是一个用于处理大型语言模型(LLM)推理的开源项目,支持远程过程调用(RPC)功能,使用户能够通过网络进行分布式计算。然而,由于其实现复杂性以及内存管理的独特性,该项目也成为了研究人员关注的安全目标。 最近,研究者Patrick Peng在探索Llama.cpp的RPC...
  • [博客翻译]用C编写一个简单的池分配器

    我前段时间了解了池分配器,非常喜欢它的简单性和高性能,因此决定自己编写一个。与malloc类似,池分配器允许用户在运行时分配内存。然而,池分配器比malloc快得多,代价是有一个固定的池大小。它允许用户在O(1)线性时间内分配和释放内存块(从现在起称为块)。此实现还使用很少的内存:在创建池时,会分配一个非常小的Pool结构以及池本身。空闲块用于存储信息,因此内存影响最小。...
创作中心
开启你的AI千集创作之旅
发布首篇内容,开通创作中心 快来成为AI千集创作者吧~
公告

AI千集是一个私有数据集生成平台
在这里您可以获得本平台自训练的
LLM模型服务
和小伙伴一起玩转AI,做自己的AI机器人
来AI千集,获取AI数据集快人一步
扫一扫,快速获取解决方案与报价
立即咨询

千集助理是连通AI学研和企业的桥梁
登陆小程序
获取AI数字人贴身服务
工作生活效率瞬间提升

千集助理