NVIDIA – 躺着挣点钱 https://tzzdq.com 让AI干活 Fri, 12 Jan 2024 07:25:12 +0000 zh-Hans hourly 1 https://wordpress.org/?v=6.8.1 https://tzzdq.com/wp-content/uploads/2023/12/cropped-logo-32x32.jpg NVIDIA – 躺着挣点钱 https://tzzdq.com 32 32 DELL笔记本雷电4接口外接显卡坞跑开源AI程序,丝滑体验无损耗! https://tzzdq.com/1063/ Mon, 18 Dec 2023 09:16:46 +0000 https://tzzdq.com/?p=1063 视频文稿:

大家好,欢迎来到“躺着挣点钱”,我是老王。上一个视频中,我给大家讲解了如何在Windows上快速部署AI工具集。安装了一大堆AI工具之后,我们需要的就是有一台高性能的电脑来帮助我们生成内容。我有一个老的台式机和两个笔记本。老的台式机是四核心处理器,已经完全跟不上节奏了。两个笔记本都是DELL的Inspiron,一个是7610,一个是7620。这两个笔记本的处理器分别是I7-11800H和I7-12700H,内存都是16G,显卡都是RTX3060 6G版本。在运行AI程序的时候,显存经常不够,处理速度也相对比较慢。

我还有个苹果的M1笔记本,这个笔记本除了剪辑视频之外,基本上干不了任何其他事,我已经把它丢在抽屉里吃灰好久都没有用了。所以我就从京东上买了个显卡坞,外接了4060TI(16G)显卡。我还从京东上买了几根酷兽的16G内存条,150一根,非常的便宜。把笔记本的内存从16G升级到32G之后,基本上所有流行的AI开源程序都可以跑得非常丝滑。

我们来看一下我录制的视频,展示一下我这个新卡坞外接好之后是什么样的效果。现在这个就是显卡坞接好之后的样子。这个笔记本是我去年买的DELL Inspiron 16 7610,我给他接了一个磐镭的显卡坞,显卡坞上安装的是技嘉的RTX4060TI显卡,搭配的是鑫谷的额定功率750瓦的电源(完全用不到这么大)。然后我还给这个显卡外接了一个4K的显示器,这个显示器是惠科的,1000块钱在京东上买的,显示质量还不错,性价比非常高。这套系统我是放在我卧室的长桌上,看起来复杂,实际上安装是比较简单的。安装好之后,你只要去英伟达的官方以及英特尔的官方把这个显卡驱动以及雷电4的驱动更新到最新版本就可以了。

那么在需要的时候,你把显卡扩展坞通过雷电线跟笔记本连接起来,笔记本只要更新好驱动可以立刻识别。你不需要的时候把它拔下来,插到另外一台笔记本上,转换非常的方便。如果将来你想升级显卡,你只需要买一个更高级一点的显卡然后把它怼上去就可以了。

当前这些AI开源程序,包括AI绘画、图片说话、视频换脸、直播换脸、图片/视频高清修复上色、图片生成动画、AI写作、AI语音等等,这其中最消耗资源的就是AI换脸以及图片开口说话。以Sadtalker为例,如果你的显存低于6G,生成视频时长超过15秒,基本上显存100%会爆。同时由于要缓存大量图片以及文件,还要把模型载入到内存中,所以这些开源程序也非常的吃内存。把这个秋叶整合包跑起来之后,就是什么都不做,如果只是16G的内存的话,那么系统内存已经占用超过一半了。所以要想用得爽,必须升级内存以及显卡。内存很简单,京东上单条16G的内存条,无论是台式记的还是笔记本的,一般不超过200块钱。

那么显卡对于笔记本而言是没有办法升级的,只能通过扩展坞的方式。笔记本外接显卡主要有两种方式,一种是通过Oculink接口,这种接口带宽非常高(非旗舰)显卡性能几乎没有什么损失,无论是做AI运算还是玩游戏。

另外一种就是通过英卡的雷电接口。如果你的接口是雷电3,那么显卡的性能损失还是比较大的,尤其在玩游戏的时候。如果是雷电4的话,性能损失要小一点。如果你不玩游戏,仅仅是用来做AI运算的话,那么基本上是没有损失的。

接下来给大家演示一下我现在的这套系统,处理器I7-11800H,内存16G,显卡4060TI16G版本(4070 12G性价比也很好)。我们看它在执行开源AI程序中的表现。在录屏的时候,我开了这个虚拟人物头像以及OBS录屏软件。我这个虚拟头像是3D的,它还是非常占CPU资源的,但是不影响,因为大部分开源AI程序对CPU的要求是非常低的。

好,我们通过秋叶整合包打开stable diffusion的Web UI,来看看画图的效果如何。我对这个画图完全不懂,这经常画出来一些怪物,我也不知道大神们是怎么弄的,就演示一下。那么我们点击生成,10.1秒,3.5秒,3.6秒,3.6秒,3.5秒,那么它基本上稳定在3.5秒左右。除了第一次会慢一点,我昨天刚装好的时候,他是大概2秒多就可以生成的。但是我昨天没有开这个虚拟头像,也没有开录屏软件,不知道是不是对CPU性能有影响。那么反正就是这个效果,我感觉还是蛮不错的。

下面我们来演示一下让这个图片开口说话,也就是Sadtalker。这里,我们就选择万能君的这个一键整合包。啊,因为这个包的调试信息比较多,然后它运行起来也比较顺手,而且它可以进行高清修复。这个背后还是Sadtalker,在那个秋叶包里面也有。那么我们这里选择图片处理,找到这个特朗普的头像,点击它就开始工作了。因为我们在它的音频驱动目录里面放了它的默认音频,这个在上一个视频中讲解过,有不懂的可以去看一下。以前我的显卡在使用这个功能的时候,如果生成视频的时长超过15秒,它就会提显存不够,然后这个程序就崩溃了。

本次,我尝试直接生成一分钟长的图片开口说话视频,并选择了高清修复功能,以测试能否成功生成。显卡已开始工作,我调出任务管理器查看系统资源占用。CPU占用率超过60%,内存占用一半。由于我开启了虚拟头像和录屏软件,这部分占用了27%的CPU。使用Sadtalker时,CPU占用率提升了大约30%。显卡成功识别了外接的RTX 4060TI,并且已全力运行。

面部渲染耗时14分54秒,视频长度约50多秒,不到一分钟。目前正在进行高清修复,这可能需要较长时间。GPU占用率约80%,硬盘(USB3 机械盘)性能充足,内存竟然达到了28G,这是我意料之外的。昨天我用16G内存跑完了这个程序,感觉上并无太大差异。操作系统似乎会根据可用内存大小进行分配,这可能不是最佳调度方式。CPU占用率现在大约75%,其中30%为虚拟头像和OBS占用。如果不录屏,关闭这两个程序,CPU占用率大约为40%多,不到一半。暂时关闭录屏,等视频生成后再做汇报。

AI应用的浪潮实际上是在ChatGPT火爆之后,即2023年才真正兴起。2023年购买高端显卡如4090价格昂贵,建议购买价格适中的4060ti 16G版本(或4070 12G)来应对AI应用。一两年后,更高端的显卡如4090可能会降价,届时可升级。

对于自媒体工作者,无论是文本编辑还是视频创作,我强烈推荐使用笔记本而非台式机。笔记本便携且硬件整合良好,自带麦克风通常带降噪功能,录音效果好。而且英特尔或AMD的笔记本处理器与台式机性能差距已不大。大厂如戴尔、惠普、联想、小米等在生产笔记本时能获得成本优势。只需在轻薄本中选择性价比高的产品,适时升级内存。如需玩游戏,可以通过显卡坞接外置显卡,便于外出办公时拆卸,兼顾工作、学习和娱乐。将来不再使用时,处理笔记本也比台式机方便。

本期视频就到这里,希望对您有所帮助。我们下期再见!

]]>
AI计算升级实战:DELL笔记本外接磐镭显卡坞+4060TI显卡 https://tzzdq.com/1046/ Sun, 17 Dec 2023 18:51:30 +0000 https://tzzdq.com/?p=1046 最近在摸索各种开源AI程序,比如satable difussion,SadTalker,Rope,FaceSwap等等,主要涉及到AI绘画,AI语音、AI图片视频处理、换脸等等。这些开源AI程序对CPU的要求极高,我的笔记本3060显卡,6G显存经常爆掉,处理速度也相对较慢。尤其是运行图片开口说话的SadTalker时,更是不堪重负,这个程序优化极差,但无奈有很多场景用得到图片开口说话的程序,所以升级显卡迫在眉睫。

选择的方案是通过笔记本搭载的雷电4接口,外接显卡扩展坞(京东购买的磐镭显卡扩展坞1300),加上技嘉的4060TI 16G版本(3600),酷兽16G内存条若干(150一根,我多个笔记本),同时我还买了个鑫谷的额定功率750w的电源,300多。买了个4k的显示器,HKC的,32寸,居然只要999元。这套方案的好处是,我不用花钱去买CPU和主板,机箱,我可以利用我现在性能还可以的笔记本,并且一个显卡扩展坞可以在我的多个笔记本中自由切换。缺点是升级内存条浪费了一些钱(内存便宜),显卡坞要1300。

首先就是把电源、显卡接上显卡坞,折腾了大概20分钟才搞明白怎么装。然后把显示器通电,接到显卡上。接着把显卡坞和笔记本用数据线连接起来。更新英伟达驱动到最新版,更新英特尔雷电驱动(都是谷歌搜索,官网下载)。更新好系统之后,重启,稍等一会,外接显卡就被自动识别了。程序会自动调用它负责高负载运算,只是我的内置3060显卡驱动似乎出了点问题,多了个感叹号,不知道是不是这两个显卡不能同时工作,我暂时没管。

 

整个过程比较简单,唯一需要注意的就是平常心,把该接的线接好,该紧的螺丝怼上,不要遇到点小问题就担心设备不行,或者系统不兼容。只要你确认你的电脑支持雷电4接口,显卡坞本身没质量问题,那就一定可行。NVidia和AMD的驱动都能很好地支持外接显卡,只要驱动对,不需要做任何设置,系统自动就会识别外接显卡。

]]>
AI硬件升级指南:GPU和内存优先,CPU一般够用 https://tzzdq.com/1010/ Sat, 16 Dec 2023 16:29:11 +0000 https://tzzdq.com/?p=1010 各种开源AI软件,包括AI绘画、AI语音、AI视频、AI换脸等层出不穷,在多个领域广泛应用,造就了一波为了AI而升级机器的热潮。这里面有人是刚性需求,生产力发展需要,有人是为了尝鲜。但无论如何,钱花在刀刃上,才是真理。

其实大多数开源AI程序,对GPU,也就是显卡的要求很高,也很吃内存,但是对CPU的要求不高。以老王的两个笔记本,处理器分别是i7 11800H,i712700H,分别是8核心16线程,12核心20线程,二者于台式机相比,跑AI程序时,CPU从来不会拉跨,占用率未出现过拉满的情况,而二者的16G内存,以及6G显存的RTX3060显卡,经常吃紧甚至挂掉。乘着双十二老王更新了下机器,买了几根16G的笔记本内存条,一个4060TI显卡,一个扩展坞,内存还没到,先把扩展坞和显卡接上笔记本,在CPU性能稍弱的11800H笔记本上,顺利跑完了以前会卡死,爆显存的各种AI程序,体验非常丝滑,在GPU拉满的情况下,CPU占用率最高也就在60%多。相信明天内存到了之后,每个笔记本扩展到24G或者32G内存,体验会更好。

ChatGPT和谷歌Bard也对这个现象进行了解释,开源AI程序对显卡和内存的要求通常高于CPU主要是由于以下几个原因:

  1. 并行处理能力:AI和深度学习算法涉及大量的并行计算,特别是在处理复杂的神经网络时。现代GPU(图形处理单元)被设计用于高效地处理这些并行任务,比起CPU来说,在处理这种类型的任务时更加高效。GPU拥有成百上千的核心,能够同时处理多个运算任务,而CPU核心数量相对较少,更适合执行序列计算。
  2. 内存需求:深度学习模型,尤其是大型模型,需要处理和存储大量的数据。这包括训练数据、模型参数、中间计算结果等。高性能的显存(GPU内存)能够更快地读写这些数据,提高整体处理速度。与此同时,系统内存(RAM)也需要足够大来支持这些数据的加载和处理。
  3. 特定的硬件优化:许多深度学习框架和库,如TensorFlow和PyTorch,都针对GPU进行了优化,利用了CUDA(适用于NVIDIA GPU)或其他技术来提高计算效率。这些优化使得使用GPU进行AI计算比使用CPU更有效率。
  4. 热效应和能耗:在进行大规模计算时,CPU可能因热效应和能耗限制而无法长时间以最高性能运行。而GPU设计时就考虑了高负荷下的持续运行,因此在长时间进行密集型计算时表现更稳定。

因此,尽管CPU对于整体系统性能很重要,但对于大多数深度学习和AI应用来说,GPU的高并行处理能力和大内存容量更为关键。

所以大家升级硬件的时候,记得优先GPU,大显存的GPU是运行很多AI程序的必要条件,4060TI 16G性价比最高,然后是4070(12G显存)。显卡够了,再配上足够的内存,一般24G就够用,执着对称双通道的,上32G。不过现在显存便宜,不是笔记本的,内存插槽够的话,64G也花不了多少钱。如果你还在犹豫如何升级自己的电脑,希望这篇文章对你有所帮助。

]]>
Tesla:来自NVidia的最强的AI计算卡 https://tzzdq.com/962/ Thu, 14 Dec 2023 12:22:10 +0000 https://tzzdq.com/?p=962 NVIDIA的Tesla系列是一系列专为高性能计算(HPC)和人工智能(AI)工作负载设计的图形处理单元(GPU)。这些卡是面向企业和科研机构的,不同于面向消费者的GeForce系列或面向专业视觉内容创造者的Quadro系列。以下是Tesla系列的一些关键特点:

  1. 高性能计算优化:Tesla GPU专为处理复杂的科学和工程计算任务而设计,它们具有大量的CUDA核心和高带宽内存,这使得它们在进行并行处理和大规模计算任务时非常高效。
  2. 大规模并行处理能力:这些GPU有成百上千的CUDA核心,可以同时处理大量的数据和复杂的计算任务,这对于需要大量数学运算的应用(如深度学习、模拟、数据分析等)非常重要。
  3. 深度学习和AI加速:Tesla GPU配备了专门的硬件加速器,如Tensor核心,这些核心专门为深度学习训练和推理优化。这意味着它们可以非常高效地处理神经网络和其他AI相关的任务。
  4. 内存和带宽:Tesla卡通常配备有大量的内存和高带宽,这对于处理大型数据集和复杂的模型至关重要。
  5. 可靠性和安全性:Tesla GPU设计用于高度可靠的企业级环境。它们具有错误校正代码(ECC)内存和其他高级功能,以确保数据的准确性和完整性。
  6. 软件和生态系统支持:Tesla GPU得到了NVIDIA的全面支持,包括驱动程序更新、CUDA和其他AI和HPC软件库的优化,以及与主流深度学习框架和HPC应用程序的兼容性。

Tesla系列的一些著名产品包括Tesla K80、P100、V100和最新的T4等。随着AI和深度学习的快速发展,Tesla GPU已经成为许多研究机构和企业在这些领域进行工作的首选硬件。

]]>
CUDA: NVIDIA的AI生态基石 https://tzzdq.com/956/ Thu, 14 Dec 2023 12:10:15 +0000 https://tzzdq.com/?p=956 CUDA(Compute Unified Device Architecture)是由NVIDIA开发的一个平行计算平台和应用编程接口(API)模型。它允许软件开发人员和程序员使用NVIDIA图形处理单元(GPU)进行通用处理。简而言之,CUDA让开发者能够利用NVIDIA的GPU进行复杂的计算任务,这在传统上是由中央处理单元(CPU)处理的。以下是CUDA的一些关键特点和优势:

  1. 并行处理能力:CUDA通过利用GPU的强大并行处理能力,使得处理大规模计算任务变得更高效。GPU含有成百上千个核心,可以同时处理大量的计算任务,这对于需要大量数学运算的应用(如机器学习、深度学习、科学计算等)尤为有益。
  2. 广泛的应用:最初,CUDA主要用于科学计算和研究领域,但随着时间的发展,它已经扩展到多个领域,包括机器学习、深度学习、视频编辑、3D渲染等。
  3. 程序语言支持:CUDA支持多种编程语言,包括C、C++和Fortran。此外,还有许多基于CUDA的高级编程语言和框架,如Python的Numba和PyCUDA等,使得开发人员能够在熟悉的编程环境中使用CUDA。
  4. 性能优化:CUDA提供了丰富的库和工具来帮助开发者优化他们的应用程序性能。这些工具包括性能分析器和调试工具,它们可以帮助开发者更有效地利用GPU资源。
  5. 生态系统和社区:由于CUDA在学术界和工业界的广泛应用,它有着庞大的用户基础和活跃的社区。这为开发者提供了大量的学习资源、共享代码和最佳实践。
  6. 兼容性:CUDA工作在NVIDIA的GPU上,这包括了从消费级的GeForce卡到专业级的Tesla和Quadro卡。这种广泛的兼容性使得CUDA成为了一个非常灵活的平行计算平台。

总之,CUDA是一个强大的工具,它使得在NVIDIA GPU上进行高性能计算变得可能,极大地推动了科学计算、数据分析和机器学习等领域的发展。CUDA的推出使得英伟达在老黄的带领下抢占了AI计算的先机,AMD再度错过历史机遇,相比于游戏市场的追赶,在AI领域想追赶CUDA加持的NVdia,AMD还有太多事情要做,然而留给他们的时间,确实不多了。

]]>
为什么N卡比A卡更适合AI计算? https://tzzdq.com/952/ Thu, 14 Dec 2023 11:59:05 +0000 https://tzzdq.com/?p=952 “N卡”和”A卡”通常指的是NVIDIA(N卡)和AMD(A卡)生产的显卡。这两家公司生产的显卡在设计和技术方面有所不同,这些差异导致它们在特定应用,如AI计算,上的性能表现也有所不同。以下是为什么NVIDIA显卡通常被认为更适合AI计算的几个原因:

  1. CUDA 和 CuDNN:NVIDIA开发了CUDA(Compute Unified Device Architecture)平台,这是一个专门为GPU加速计算设计的编程接口和工具套件。CUDA极大地简化了在NVIDIA GPU上运行复杂计算任务的过程,特别是对于深度学习和AI应用。此外,CuDNN(CUDA深度神经网络库)是专为深度学习设计的一个库,它进一步优化了在NVIDIA GPU上进行深度学习计算的效率。
  2. 广泛的支持和兼容性:由于NVIDIA在深度学习和AI领域的早期入场,许多深度学习框架和库(如TensorFlow、PyTorch等)最初是为NVIDIA的CUDA架构优化的。这意味着使用这些框架的开发者和研究人员往往更倾向于使用NVIDIA GPU,因为它们可以直接利用这些工具的优化和功能。
  3. 强大的硬件性能:NVIDIA的一些GPU系列(如Tesla、Quadro和最新的RTX系列)在AI和机器学习任务中表现出色。它们拥有大量的CUDA核心和专门的Tensor核心(用于AI计算),这使得它们在处理并行计算和复杂的神经网络时更为高效。
  4. 企业级解决方案和支持:NVIDIA不仅提供硬件,还提供完整的企业级AI解决方案,包括硬件、软件和支持服务。这对于商业公司和研究机构来说是一个重要的优势,因为它们通常需要稳定、可靠的技术支持。

相比之下,AMD的GPU虽然在游戏和一些通用计算任务中表现出色,但它们在AI和深度学习领域的支持相对较少。AMD有自己的GPU加速平台ROCm(Radeon Open Compute platform),但它的生态系统和支持与CUDA相比还不够成熟。

综上所述,虽然AMD在某些方面正在迎头赶上,但截至目前,NVIDIA的GPU在AI计算领域仍然占据主导地位,主要是由于它们的专门硬件设计、成熟的软件生态系统和广泛的行业支持。

]]>
Windows快速安装Stable difussion等开源AI工具 https://tzzdq.com/922/ Thu, 14 Dec 2023 07:55:18 +0000 https://tzzdq.com/?p=922 我们经常在网上看到各种各样花里胡哨的AI程序,包括AI换脸,AI动画,AI会话,图片高清修复,图片开口说话,文字转语音等等,各种常见的工具包括Roop、Rope、SadTalker、DeepFaceLab、Stable difussion、Lip2Wav等等,可以说是目不暇接。

这些程序都有一些共同点,大多数支持跨平台,在Windwows有特定的安装环境要求,比如都要求安装Python环境,PIP包管理工具,GIt,FFMpeg多媒体库,CUDA环境等。其中Python是现在最流行,应用最广的AI开发语言;PIP是Python的包管理工具,主要用来安装项目依赖的各种包和库,很多项目还要求安装Conda,这又是另一个工具;Git是代码版本管理工具,负责从Github上下载项目代码;FFMPeg是老牌的开源多媒体工具;CUDA则是Nvidia的AI运算架构,也是一组API。英伟达的GPU和TPU等AI芯片以及CUDA接口已经成为现在AI行业的基础设施。安装好这些往往要经历复杂而繁琐的步骤,而且经常因为一两个错误导致前功尽弃,白折腾。

如果你是打算长期在AI领域折腾,研究技术,那么这些折腾就是成长的历程。一般而言,推荐你有一台空闲的,并且配置较高的电脑,搭配RTX3060 12G显存以上的显卡再来折腾。如果在自己的工作电脑上者仍,把系统环境搞崩掉,日常工作都会受到影响。

现在有一些方法来帮助我们少走弯路,快速安装好这些开源项目。本文就介绍其中两种。

1,通过Pinokio工具安装这些开源项目Pinokio是专门帮助我们在windows上安装开源AI程序而设计的一个工具,这个工具可以帮助我们搭建运行AI程序所必须的依赖软件以及环境,它可以一键处理很多麻烦的步骤,常见的开源工具比如Stable difussion,在上面就有专门的安装脚本,一键安装即可。

Pinokio会自动把我们所有的项目放在虚拟环境之中,互不影响,即便除了问题,也不会影响到其他项目,搞坏系统。根据实测,Pinokio可以帮助我们规避大量麻烦,但它也不是万能的,也会在某些步骤卡死,还需要我们手动解决。但有了这样一个工具,我们可以避免70%-80%的麻烦,还是值得一试。

Pinokio适合需要搭建开发调试环境的人使用。如果你只是想使用软件,不太愿意折腾环境,那么你可以使用第二个推荐方法:整合包。

2,整合包:安装一些大牛的整合包,比较知名的有B站的万能君的软件库(大部分工具免费,目前有的工具收费50元,也还算超值),秋叶整合包等。这些整合包把软件运行环境打包好,下载之后直接解压即可使用。唯一麻烦的是压缩包巨大,解压耗时耗力。好用的解压工具有7zip,bandzip,winrar等。经过老王实测,winrar在解压超大包的时候效率高很多,大家可以参考实际效果自行选择。

部署本地AI工具环境固然要付出一些代价,比如一个不错的主机,一张好显卡,还要折腾这样那样的环境,得花不少时间琢磨。但是工欲善其事,必先利其器,磨刀不误砍柴工。只要你部署好了环境,掌握这些工具,你就不用再网络上到处寻找一些鸡肋AI云平台,使用AI资源也能随心所欲。相比于本地AI工具能够在内容创作上带来的巨大红利,那一点点麻烦显然是不值一提的。

]]>
2024最有性价比的AI计算显卡 https://tzzdq.com/918/ Thu, 14 Dec 2023 05:29:24 +0000 https://tzzdq.com/?p=918 2024年,40系列仍然是Nvidia的最新主力,50系列最早也是在2025年发布,那么当下最优性价比的Ai显卡,用来跑Stable difussion、SadTalker、DeepFaceLab、Roop、Rope的AI程序,最有性价比的是什么?

目前来看,根据技术大牛们的推荐比较一致,那就是4060TI 16G。RTX 4060ti 16GB是目前最香的AI显卡,没有之一。预计价格在4000元以内。16G的显存在跑SD的时候基本上可以说是丝滑无碍,看不到爆显存。而4070在核心方面略快一些,但4060ti的16GB显存非常实用,例如有些AI需要分配3-4GB的线程,4060ti就可以跑4个,而4070只能跑3个,因此4060ti在某些方面可能会更快。价格上这两个卡也差不多,只相差几百元,这使得4060ti 16GB版本具有更高的性价比。

如果你手头吃紧,退而求其次,在12G的范围内,RTX3060 12G的性价比也很高,但是40系列相比于30系列,AI计算的进步幅度还是比较大的,如果预算不太紧张,当然还是选择4060TI的16G版本。

]]>
ChatGPT解答美国政府禁止英伟达向中国出售高端显卡 https://tzzdq.com/114/ Fri, 24 Nov 2023 23:09:49 +0000 https://tzzdq.com/?p=114 今天要利用AI为我们做一个短片,目标是生成一分钟的Youtube Shorts视频,选择主题为让GPT解答美国政府禁止英伟达向中国出售高端显卡。

对话内容如下:

美国政府限制英伟达
向中国出售高端显卡
你怎么看?
美国政府限制英伟达
向中国出售高端显卡的决策
体现了几个关键点
一 国家安全和地缘政治
这可能基于对高端技术
可能被用于军事
或其他敏感领域的担忧
二 技术霸权竞争
反映了全球范围内在关键技术
如人工智能和高性能计算领域的竞争
三 对全球市场的影响
这一决策可能会影响全球技术
市场和供应链
特别是在
高性能计算领域
四 刺激中国的技术独立
长期来看
这可能促使中国加快自主研发
高性能技术
从而减少对外部技术的依赖
每个角度
都显示了这一决策的复杂性
和多重影响

]]>