自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(108)
  • 收藏
  • 关注

原创 【全网瞩目】你想知道的Llama3都在这里

Meta发布了开放式生成人工智能模型 Llama 系列的最新产品: Llama 3。或者更准确地说,该公司首次发布了其新的 Llama 3 系列中的两个模型,其余模型将在未来某个不确定的日期发布。

2024-04-19 10:56:40 1066

原创 颤抖吧,70B以下的LLM——314B参数Grok开源了

还记得2月份,无数新闻传媒争相报道OpenAI殿堂级的Sora模型发布(至今PPT),就连胡主编和周老板都感叹中美的在这一领域的差距相当富有挑战。没错,那个时候,我们还是把玩着SDXL和midjourney的傻孩子,自以为了解了text2image generation的项目熟悉度,所以面对Sora的出现,就连国内的专家都啧啧称赞,当然最好是像SVD直接开源了。所以当Sota的text2video出现且闭源时,才会为这种技术差距感到一丝焦虑。

2024-03-18 11:23:30 974

原创 硝烟弥漫的科技战场——GPT之战

GPT的全称是”Generative Pre-training Transformer",翻译成中文的意思是“生成式预训练转换器”。那么GPT到底是个什么东西呢?GPT是由OpenAI实验室开发的自然语言处理(NLP:Natural Language Processing) 模型。那什么是“模型”呢?模型就是一个数学中的函数,函数有输入参数和输出参数,我们给同一个函数输入了不同的参数,这个函数会产生不同的输出。通过数据集进行大量的训练,调整权重,从而得到的Text Generation模型。

2023-11-28 15:30:53 832 2

原创 大算力时代已经到来

计算机发展到现在,早已经历了大数据时代,而现如今国家也注意到国民大数据的重要性,而给予保护性条款和制度的建立。我觉得这只是早已注定的结局,但是未来该走向何方,着眼当下,我们互联网人早已身处在答案之中——大算力(Big Computing Power)时代。回顾2019年,Nvidia宣布下一代的的显卡将会具备光追技术。而在随后2020年,区块链大佬就发现Nvidia的系显卡对原系算力的提升有着难以置信的显著表现。就此大算力时代也彻底拉开了序幕。当然,许多3A大作也可以在4k画质下突破百帧。随后,AMD也在2

2022-08-06 17:58:32 1055

原创 一个程序员应怀揣武侠梦

一个程序员应怀揣武侠梦在美国的硅谷,许多有梦想的青年都有着一份属于自己的美国梦。在他们的眼中,总会让人感受到一种想要改变世界的朝气。难道其他地方的青年们没有属于自己的梦想吗?答案明显是每个人都拥有着。我从小就被金庸先生和古龙先生笔下的“江湖”给深深的吸引着。在那里,权贵并不重要,更重要的是友情、亲情、国士无双的情怀。每一个身处在江湖中的人都始终贯彻着属于自己的人生信条。我觉得这样的人一定很热爱这个江湖。相比之下,计算机行业也是一种“江湖”。在AT&T的肯•汤普森先生和丹尼斯•里奇先生创作出 Un

2021-03-07 17:47:51 236 1

原创 红帽发布Red Hat Enterprise Linux AI(RHEL AI)

RHEL AI 以 InstructLab 开源项目为基础,将 IBM Research 的开源授权 Granite 大型语言模型和 InstructLab 模型对齐工具(基于 LAB(Large-scale Alignment for chatBots)方法论)结合在一个优化的、可启动的 RHEL 映像中,以简化服务器部署。鉴于当前的时代背景,人工智能(AI)在此次峰会上占据了重要位置,因此红帽公司(Red Hat)也不甘人后宣布推出 RHEL AI。对 RHEL AI 的解释是。

2024-05-08 10:45:44 297

转载 研究显示AI大语言模型在处理医疗编码方面有着明显局限性

研究人员报告说,所研究的所有大型语言模型,包括 GPT-4、GPT-3.5、Gemini-pro 和 Llama-2-70b 在再现原始医疗代码方面都显示出有限的准确性(低于 50%),这突出表明这些模型在医疗编码的实用性方面存在很大差距。例如,当给出 ICD-9-CM 中"结节性前列腺,无尿路梗阻"的描述时,GPT-4 生成了"结节性前列腺"的代码,展示了其对医学术语相对细微的理解。研究人员提醒说,这项研究的人工任务可能并不能完全代表真实世界的情况,在这种情况下,LLM 的表现可能会更糟。

2024-04-29 15:09:58 8

原创 战胜DALL·E 3和 Midjourney的开源模型来了——playground-v2.5

这是首次超越闭源AI模型的开源时刻。Playground AI 前不久宣布Playground v2.5正式开源。Playground v2.5 是美学质量方面最先进的开源模型,特别关注增强的颜色和对比度、改进的多纵横比生成以及改进的以人为中心的精细细节。

2024-04-26 20:33:32 518

原创 【企业级核弹降临】面向企业 AI 的最佳 、高效智能、真正开放的LLM——Snowflake Arctic

先说评语:彦宏哥,收手吧!周围都是开源大模型!最近大家的注意力都集中在 Llama 3 大模型上,而对于 Phi 3 和 OpenELM 的发布都不怎么关注。以至于 SD 3 只出了 API,貌似也没怎么感冒。也对也对,毕竟百度李总刚笃定闭源完压开源LLM,结果太平洋彼岸的Meta就发布了 Llama3 8B 和 Llama3 70B,连前百度大佬(现 AWS AI专家 吴恩达)都说这是生日当天最好的礼物“我们是专业的,除非忍不住(捂嘴)” 月之暗面的CEO为什么也支持李总呢?

2024-04-26 12:41:34 920

转载 微软推出其规模最小的人工智能模型 Phi-3

微软推出了其轻量级人工智能模型 Phi-3 Mini 的下一个版本,这是该公司计划发布的三款小型模型中的第一款。Phi-1 专注于编码,Phi-2 开始学习推理,而 Phi-3 则更擅长编码和推理。虽然Phi-3系列模型知道一些常识,但它在广度上无法击败GPT-4或其他LLM–从一个在整个互联网上接受过训练的LLM和一个像Phi-3这样的小型模型中得到的答案差别很大。Boyd 说,公司经常发现,像 Phi-3 这样的小型机型更适合他们的定制应用,因为对于很多公司来说,他们的内部数据集无论如何都会偏小。

2024-04-24 09:53:49 17

翻译 Hugging Face 引入了 Idefics2,一个 8B 开源视觉语言模型

虽然其前身的参数大小为 800 亿,但 Idefics2 的参数大小仅为 80 亿的十分之一,可与 DeepSeek-VL 和 LLaVA-NeXT-Mistral-7B 相媲美。如今,Idefics 正在接受升级,具有更小的参数大小、开放许可证和改进的光学字符识别 (OCR) 功能。Idefics2 现已在 Hugging Face 上推出。它的发布是随着人工智能热潮的持续而推出的许多多模态模型的一部分,包括 Reka 的新 Core 模型、xAI 的 Grok-1.5V 和谷歌的 Imagen 2。

2024-04-23 10:47:21 57

原创 【全网首发】Meta刚发布的Llama3测试体验

就在今天凌晨,万众期待的 Llama 3 就发布了。我一大早赶集似的就去申请Llama 3,申请也比较简单,问你姓名,地区和联系方式就这些,等了一会儿就通过了。而此次 Llama 3 只有8B70B和。据说还有其他的版本需要等到之后的时间安排才能发布。反正对我而言勉强都能跑,也大差不差。

2024-04-19 14:29:24 516

翻译 在 Docker 容器中挂载文件系统

Docker 容器是一个可移植的、轻量级的、隔离的环境,用于运行应用程序及其依赖项。在 Docker 容器中挂载文件系统允许从容器访问主机系统上的文件或目录。这样做对于在容器和主机之间共享数据或配置非常有用。在本教程中,我们将学习如何在 Docker 容器中挂载文件系统。

2024-04-15 14:10:45 55

原创 从零开始AI跟我学手撸grok,站在AI大神GG肩上

大神GG直接用了一台 M2 Ultra的果子机,在35秒的视频里用GPU跑了 9token/s。

2024-04-14 19:00:10 216

原创 家庭主机不能跑 Mixtral-8x22b-v0.1?我就跑给你看

谁说家用机不能跑 Mixtral-8x22b-v0.1的,我就偏不信。Mistral 公司又发布了比8x7B更强的MoE模型——Mixtral-8x22b-v0.1。于是我就想试试家庭机能不能跑。昨天也挺艰辛的。从下午18点开始,HF下载就卡的一批,我还以为CDN网络被墙了。后来想想,估计是友军都在下载model。还是Musk英明神武,先投了Bittorrent文件,再丢Huggingface。动不动100B参的LLM确实占带宽。建议开源100B以上的放个Bittorrent文件,或者大家优先B2B下载。

2024-04-12 16:13:33 533

转载 1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

IT之家 4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。Mixtral 8x22B 共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,不过为单一任务可以调用部分模型(440 亿参数),因此使用起来更加灵活。

2024-04-11 13:36:22 176

原创 给原生的 Stable Diffusion 模型按个涡轮发动机——DeepCache

AI绘图虽然模型种类繁多,但是一直存在一个缺点就是不够快。以至于Stability公司专门做了Turbo系列和Cascade版本。但是这些终究治标不治本,终于在CVPR2024收入中,我觉得DeepCache是一次不错的尝试。

2024-04-11 13:04:28 495

原创 什么!Intel/AMD/Apple Silicon也能本地部署的Llama工具来了

主流的LLM都需要通过CUDA才能高效的运行在本地,但是随着Github上出现了Llama.cpp这个神器,一切都改变了。它通过AVX指令和MPI来实现CPU上并行计算,从而在本地计算机高效地运行各种主流的类Llama模型。同时它也支持metal,使得Apple Silicon的系统也能部署LLM。然而他的架构偏向于编译,安装部署较为复杂,于是衍生了Ollama之类的傻瓜式工具。而我要介绍的是Mozilla公司推出了Llamafile工具。

2024-04-03 21:19:53 714

翻译 9款最棒的AI图像生成 SDXL模型

最近听闻Stability CEO及大部分主要开发人员的出走,不知道是否会影响 SD 3 的发布。但是对于国内绝大多数使用 Stable Diffusion Model,这无疑是挺打击人的。但是我觉得Civitai的生态还相对稳定,所以盘了一下其中部分 sdxl mod。

2024-03-29 12:04:31 210

原创 如何在Ubuntu上部署最新的Google Chrome和ChromeDriver

本章将帮助各位同学如何在Ubuntu及衍生版安装ChromeDriver和Selenium。

2024-03-11 21:52:37 596

原创 惋惜,属于大家的模拟器就此消失了

惋惜,属于大家的模拟器就此消失了!

2024-03-06 17:23:08 384

原创 Made In Heaven,LLM要加速了

玩LLM的多数用的是Huggingface框架,而它本身提供的是accelerate库来提升模型的训练推理速度。这些都离不开Nvidia 的 Cuda 计算,而目前适配这一驱动的只有Windows和Linux。于是我就尝试在这两个系统上进行加速实验,尝试Huggingface Doc中推荐的 Flash Attention 2以及 vLLM的 Page Attention。

2024-03-02 15:26:06 1009 1

转载 研究称48%热门新闻网站屏蔽OpenAI爬虫

鞭牛士报道,2月27日消息,据路透社研究所的一项调查显示,截至 2023 年底,10 个国家/地区近一半 (48%) 的热门新闻网站屏蔽了OpenAI的爬虫,而近四分之一 (24%) 屏蔽了谷歌的 AI 爬虫。与此同时,德国 60% 的新闻网站屏蔽了谷歌的爬虫,而波兰和西班牙则有 7% 的新闻网站屏蔽了谷歌的爬虫。到 2023 年底,超过二分之一 (57%) 的传统印刷出版物网站(例如《纽约时报》)将屏蔽 OpenAI 的爬虫程序,而电视和广播公司的这一比例为 48%,数字媒体的比例为 31%。

2024-02-27 11:33:19 1326

翻译 六种本地化运行大语言模型的方法(2024.1月)

(开源的)大语言模型(LLMs),特别在Meta发布了LLaMA之后,Llama 2更逐步完善且被应用于更广泛的领域在本文中,我想演示在本地运行此类模型的六种方法,即在您的计算机上运行。这对于在助手角色中使用此类模型可能很有用,类似于您在浏览器中使用 ChatGPT 的方式。但是,这对于试验模型或部署与 OpenAI 兼容的 API 端点进行应用程序开发也有所帮助。请注意,我只关注 GPT 风格的文本到文本模型。

2024-02-24 10:34:38 1082

原创 如何让家中的工作站提提网速

2.4G和5G是指无线网络的工作频率,其中2.4G指的是2.4GHz频段,5G指的是5GHz频段。这两个频段的区别在于5G的频率更高,信号传输的速度更快,但覆盖范围更小。Wavemon是一个完全免费的工具,可用于所有人 Linux 发行版,它的操作非常简单,安装非常简单。该程序将使我们能够详细了解我们的所有特征和状态 无线网络 连接到的无线网络,我们将能够看到SSID,MAC地址,接收到的无线信号,无线网络的安全性和身份验证,以及它们在2.4GHz和5Ghz频段中使用的信道。

2024-02-24 09:22:07 568

原创 一个比SDXL更快的模型——Stable Cascade【避坑指北】

2024年的春节假期,AIGC界又发生了重大革命性事件。

2024-02-16 17:38:25 1497

翻译 现代机器学习算法:优势和劣势

在本指南中,我们将对现代机器学习算法进行实用、简洁的介绍。虽然存在其他此类列表,但它们并没有真正解释每种算法的实际权衡,我们希望在这里这样做。我们将根据我们的经验讨论每种算法的优缺点。对机器学习算法进行分类是很棘手的,有几种合理的方法;它们可以分为生成/判别、参数/非参数、监督/无监督等。例如,Scikit-Learn 的文档页面按算法的对算法进行分组。然而,根据我们的经验,这并不总是对算法进行分组的最实用方法。这是因为对于应用机器学习,你通常不会想,“天哪,我今天想训练一台支持向量机!

2023-11-28 17:31:41 747

翻译 怎样提示Code Llama

【翻译 ollama.ai 的《How to prompt Code Llama》】就在两周前由 Meta 发布了 三种 Code Llama 模型:- Instruct(指令)- Code completion(代码补全)- Python本指南将介绍针对 Code Llama 的不同变体和功能构建提示的不同方法。以下示例使用具有 4 位量化的 70 亿参数模型,但也提供了 130 亿和 340 亿参数模型。

2023-11-22 12:37:47 272

翻译 Code Llama:代码的开放基础模型

【翻译 llama-2.ai 的《Code Llama: Open Foundation Models for Code》】Meta 发布了 Code Llama,这是一系列基于 Llama 2 的大型语言模型,可在开放模型中提供最先进的性能、填充功能、对大型输入上下文的支持以及用于编程任务的零样本指令跟踪能力。Meta 提供了多种风格来涵盖广泛的应用程序:基础模型 (Code Llama)、Python 专业化 (Code Llama – Python) 和指令遵循

2023-11-22 12:11:37 206

原创 强烈建议linux中nvidia 545.29驱动不要升

我之前一直用终端连接我的工作站(系统是arch rolling状态),结果昨天回家难得想试试545驱动下的效果。结果一用chrome播放视频就卡,甚至后面进Login界面也会卡住鼠标。折腾了一晚上用以上命令才降级驱动,而且535和545的驱动都最好用wayland运行,我是装KDE,安装了一遍wayland,在进Login时的左下角选择wayland进去才正常的。

2023-11-13 11:06:39 297

原创 Dash比Bash傻一点,但是快一丢丢

最近安装Carbonyl索性把一个很傻的问题解决一下,就是Dash默认如何更改。

2023-10-07 14:47:11 109

原创 chrome浏览器调试安卓设备inspect404解决方案

用chrome inspect 结果 HTTP/1.1 404 Not Found,这是由于chrome需要代理。直接换chromium版的edge运行edge://inspect/devices#devices。运行inspect就没有404了。

2023-09-27 16:18:11 1582

原创 媲美iptables的Windows端口转发——netsh

Windows系统下的端口转发使用portproxy模式下的netsh命令,该命令的使用前提是要在管理员身份打开cmd进行执行。

2023-09-14 15:57:57 903

原创 So easy!如何在WSL2中使用ADB

作为移动端开发的初学者,对于ADB应该都不陌生。却成了问题由于usbip-win虽然能将usb连接到wsl中,但是adb无法识别android实机。这是由于WSL2的技术架构和WSL发生的分歧,对原生usb不能直接支持。

2023-09-12 14:57:19 550

原创 如何在国内安装Bitdefender

如果能直接通过agent下载安装包,就正常根据界面安装。我通过agent下载后,在everything里没找到原厂包,所以走回国内的方法。

2023-09-07 09:22:14 352

原创 用PM2和xltpl开发一个Excel模板导出FLASK API

最初是Eric Lapouyade发现一件事——docx采用xml的格式,于是用Jinja2的html模板来套用docx。在2015年发布了docxtpl,但是这个作者没有开发spreedsheet部分。而Zhang Yu也在2020年以此思路开发了xltpl,补全了这部分的遗憾。(个人推理)总体两个package的api风格很像,用起来都非常上手。

2023-08-29 16:56:49 990 2

翻译 解决 Ubuntu 和其他发行版上的 WSL2 网络无法访问的问题

对于我的 Ubuntu 1.2 发行版,从 WSL20 升级到 WSL04 时,虚拟机无法连接到网络。错误消息包括:无法访问网络;临时故障解决;名称解析等暂时失败。网站上有很多文章,其中许多文章都没有解决问题。本页总结了这些问题的解决方案,希望能为您节省大量时间。

2023-08-22 10:48:36 3317

原创 WSL2和本地windows端口互通

众所周知 WSL 默认安装后,只允许windows访问 Windows Subsystem for Linux,而WSL是不能反之访问本地windows。我之前用vmware的思路认为是nat的网络模式,于是改成了桥接,结果wsl的桥接模式被我改的能访问本地,但是却不能Internet,而且网络模式很难改回来。害我重装了电脑(手残easeus,备份还原不会用,重装完分区才研究明白备份软件,不过我原来的Ubuntu WSL 也有点憨憨)

2023-08-21 11:02:25 1324

原创 posefs1.perception.cs.cmu.edu 无法访问

我尝试练习openpose时,发现运行的代码缺乏coffee的model,需要执行models 下的bat或sh。但是 posefs1.perception.cs.cmu.edu 无法访问。在根据它的getModels脚本放置相应的model。从Kaggle上下载。

2023-08-14 13:36:49 1236

原创 “UserWarning: which is a non-GUI backend, so cannot show the figure. fig.show()“的解决方案

在jupyter lab中运行flg.show()会出现non-GUI的错误。最简单的处理方式就是用tkinter。

2023-08-07 14:01:48 374

Grok-314B模型磁力链接

Grok-314B模型磁力链接

2024-03-18

image模型,yolov3.pt

image模型,YOLOv3 (Size = 237 mb, moderate performance and accuracy, with a moderate detection time)

2023-01-12

image模型,tiny-yolov3.pt

image模型,(Size = 34 mb, optimized for speed and moderate performance, with fast detection time)

2023-01-12

retinanet-resnet50-fpn-coco-eeacb38b.pth

Imageai模型,RetinaNet (Size = 130 mb, high performance and accuracy, with longer detection time)

2023-01-12

densenet121-a639ec97

ImageAI模型,DenseNet121 by Facebook AI Research (Size = 30.8 mb, slower prediction time and highest accuracy)

2023-01-12

inception-v3-google-1a9a5a14.pth

ImageAI模型,InceptionV3 by Google Brain team (Size = 103 mb, slow prediction time and higher accuracy)

2023-01-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除