直播结束,大家稍后可在视频区观看回放视频。
直播结束,大家稍后可在视频区观看回放视频。
签到
签到
签到
签到
签到
签到
签到
签到
签到
签到
签到
签到
好诶
签到
签到
签到
签到
签到
签到
签到
签到
签到
签到
签到
在AI基础设施的建设中主要关注哪些方面?
AI计算、存储、网络、系统管理的协同设计,避免某个领域成为“木桶的关键短板
NVIDIA的新推理加速技术是如何工作的?具体如何实现成本和能耗的降低?
开源的版本包括TRT-LLM,Triton这些工具配合相应的CUDA Library。 商业化的产品级方案是使用NIM以及NeMo Microservices.
NVIDIA在与合作伙伴开发新技术或产品时,如何处理知识产权和技术秘密的问题?
和不同层面的合作伙伴有不同的合作方式,从软件角度讲,例如基础大模型,开源的,商业化的,与MLops合作伙伴,与其他的ISV等。
如何确保服务器能充分利用GPU的计算能力?
需要在供电、散热、GPU内部通信、GPU运行监控等地方做足够的验证和优化,确保GPU可以工作在最佳的运行状态。
有哪些策略来应对AI时代的高能耗问题?
从基础设施硬件上,针对AI时代功耗挑战,目前有高密度模块化数据中心、数据中心GPU液冷等解决方案技术;从软硬件协同优化的角度,降低训练和推理的精度,如使用FP8、INT8,可以在相同吞吐下,有效降低硬件需求及系统功耗。
液冷技术在实际部署中表现如何?
目前主要应用有冷板式液冷与浸没式液冷两种实现技术,其中冷板式液冷方案使用更为广泛。
AI存储解决方案有哪些具体技术特性?
我们认为,面向AI的数据存储系统需要具备容量和性能上的可扩展性、文件系统多协议的支持与互动、针对GPU的I/O优化,比如支持GPU Direct Storage,以及小文件层面的元数据优化等技术特性。
PowerEdge XE9680服务器在处理AI工作负载方面有何优势?
XE9680主要是面向高性能AI计算场景,如大规模的模型训练和微调,在单机和集群环境下,提供高吞吐的GPU计算性能。
NVLink和InfiniBand技术在处理AI数据传输时,是如何优化延迟和吞吐量的?
优化方式是多方面的,包括RDMA,高带宽,高并发,低延时等等。
Blackwell平台如何支持万亿参数大模型,具体技术实现是怎样的?
一方面通过硬件性能的提升,包括显存,通信,网络。另一方面通过模型量化。
在与戴尔等硬件供应商的合作中,英伟达如何确保其技术与合作伙伴的硬件解决方案的兼容性和优化?
如何解决大数据和高速通信的存储通信瓶颈?
硬件层面:提升计算与存储的网络通信带宽,采用分布式存储架构、横向扩展可以有效提升集群带宽性能;通过GPU Direct Storage提供更高的存储带宽和更低的IO延迟
NIM Microservice如何具体提升大模型的部署效率和运行灵活性?
NIM 包括基础大模型,CUDA, CuDNN, TRT-LLM, Triton。这些开源框架的企业级支持以及Day 0支持。
基础架构如何支持异构计算环境?
设备内部,支持多元化的AI加速芯片技术;系统层面,多元异构算力的网络与存储平台构建,以及多元AI加速芯片的集中管理和池化,都是目前的主要发力点。
如何处理在AI领域的数据治理和安全问题?
我们目前采用零信任的安全机制构建我们的基础设施硬件,另外有诸如隐私计算、联邦计算、存储层面的QoS等资源隔离以及安全认证等机制保障。
dell在推动边缘计算发展中扮演什么角色?
Dell目前提供面向边缘计算的优化型硬件,软件调度及管理平台,以及与合作伙伴生态融合的行业场景化边缘计算解决方案。
如何解决大型AI模型在系统层面和监管层面可能遇到的挑战?
系统层面包括硬件,软件,分布式以及资源管理等方面。监管层面每个区域,运营主体各有区别。
在提供机器人开发平台时,英伟达采用的关键技术和架构有哪些?
Omniverse, LLM, VLM,多模态等一系列技术。
推理微服务(NIM Microservice)与其他推理加速解决方案相比有何优势?
最明显的区别是快速产品化并且提供企业级的支持服务,并且与市面上的主流AI服务兼容。
戴尔如何看待未来硬件集成的趋势?
异构多元化、集群化、以及资源细粒度的调配与池化,是我们认为AI系统及硬件技术未来的演进。
英伟达与合作伙伴合作的成功案例中,哪些是基于共同研发或技术整合的?
NVIDIA拥有最广阔的AI生态。在面向企业用户提供AI 服务的过程中,NVIDIA作为软硬件工具的提供者,都是通过各方面的合作伙伴交付。
AI Foundry三大支柱具体包括哪些技术?它们如何协同工作以支持AI应用?
AI foundry包括算力服务,NIM以及NeMo Microservices.
针对企业级AI应用,提供了哪些具体的技术支持和服务?
我们目前可以提供,如向量数据库RAG的部署与优化、AI数据中心整体设计、GPU池化与虚拟化、AI+HPC等技术咨询与部署服务。
AI基础设施领域面临的最大挑战是什么?
AI技术部署中如何考虑可持续发展和环保因素?
AI数据中心的节能设计、AI计算服务器的碳足迹追踪报告,是我们目前正在做的工作。
AI领域的全球扩展战略是什么样的?
AI行业应用落地,以及如何解决AI产业化的算力与存力的需求,是目前AI在全球各个区域,业界关注的焦点。
Nvidia是如何通过技术协同工作,如TensorRT与CUDA,来优化内存管理的?
https://github.com/NVIDIA/TensorRT-LLM?tab=readme-ov-file#support-matrix
在NVIDIA的战略计划中,如何看待未来工业革命的技术趋势,并具体实现这些趋势?
算力运营变为Token运营,再变为Agent运营。
如何看待GPU和CPU在AI应用中的互补性?
GPU 专注于计算密集型任务,CPU 则在其他方面发挥作用,两者相互补充,使得 AI 系统更加完善。
戴尔与其他技术提供商在AI基础设施领域有何不同?
如何评价其AI基础架构的市场竞争力?
有哪些针对特定行业的AI解决方案?
ai到底能解决什么问题
我们是生产工厂
88
在AI基础设施的建设中主要关注哪些方面?
AI计算、存储、网络、系统管理的协同设计,避免某个领域成为“木桶的关键短板
NVIDIA的新推理加速技术是如何工作的?具体如何实现成本和能耗的降低?
开源的版本包括TRT-LLM,Triton这些工具配合相应的CUDA Library。 商业化的产品级方案是使用NIM以及NeMo Microservices.
NVIDIA在与合作伙伴开发新技术或产品时,如何处理知识产权和技术秘密的问题?
和不同层面的合作伙伴有不同的合作方式,从软件角度讲,例如基础大模型,开源的,商业化的,与MLops合作伙伴,与其他的ISV等。
如何确保服务器能充分利用GPU的计算能力?
需要在供电、散热、GPU内部通信、GPU运行监控等地方做足够的验证和优化,确保GPU可以工作在最佳的运行状态。
有哪些策略来应对AI时代的高能耗问题?
从基础设施硬件上,针对AI时代功耗挑战,目前有高密度模块化数据中心、数据中心GPU液冷等解决方案技术;从软硬件协同优化的角度,降低训练和推理的精度,如使用FP8、INT8,可以在相同吞吐下,有效降低硬件需求及系统功耗。
液冷技术在实际部署中表现如何?
目前主要应用有冷板式液冷与浸没式液冷两种实现技术,其中冷板式液冷方案使用更为广泛。
AI存储解决方案有哪些具体技术特性?
我们认为,面向AI的数据存储系统需要具备容量和性能上的可扩展性、文件系统多协议的支持与互动、针对GPU的I/O优化,比如支持GPU Direct Storage,以及小文件层面的元数据优化等技术特性。
PowerEdge XE9680服务器在处理AI工作负载方面有何优势?
XE9680主要是面向高性能AI计算场景,如大规模的模型训练和微调,在单机和集群环境下,提供高吞吐的GPU计算性能。
NVLink和InfiniBand技术在处理AI数据传输时,是如何优化延迟和吞吐量的?
优化方式是多方面的,包括RDMA,高带宽,高并发,低延时等等。
Blackwell平台如何支持万亿参数大模型,具体技术实现是怎样的?
一方面通过硬件性能的提升,包括显存,通信,网络。另一方面通过模型量化。
在与戴尔等硬件供应商的合作中,英伟达如何确保其技术与合作伙伴的硬件解决方案的兼容性和优化?
如何解决大数据和高速通信的存储通信瓶颈?
硬件层面:提升计算与存储的网络通信带宽,采用分布式存储架构、横向扩展可以有效提升集群带宽性能;通过GPU Direct Storage提供更高的存储带宽和更低的IO延迟
NIM Microservice如何具体提升大模型的部署效率和运行灵活性?
NIM 包括基础大模型,CUDA, CuDNN, TRT-LLM, Triton。这些开源框架的企业级支持以及Day 0支持。
基础架构如何支持异构计算环境?
设备内部,支持多元化的AI加速芯片技术;系统层面,多元异构算力的网络与存储平台构建,以及多元AI加速芯片的集中管理和池化,都是目前的主要发力点。
如何处理在AI领域的数据治理和安全问题?
我们目前采用零信任的安全机制构建我们的基础设施硬件,另外有诸如隐私计算、联邦计算、存储层面的QoS等资源隔离以及安全认证等机制保障。
dell在推动边缘计算发展中扮演什么角色?
Dell目前提供面向边缘计算的优化型硬件,软件调度及管理平台,以及与合作伙伴生态融合的行业场景化边缘计算解决方案。
如何解决大型AI模型在系统层面和监管层面可能遇到的挑战?
系统层面包括硬件,软件,分布式以及资源管理等方面。监管层面每个区域,运营主体各有区别。
在提供机器人开发平台时,英伟达采用的关键技术和架构有哪些?
Omniverse, LLM, VLM,多模态等一系列技术。
推理微服务(NIM Microservice)与其他推理加速解决方案相比有何优势?
最明显的区别是快速产品化并且提供企业级的支持服务,并且与市面上的主流AI服务兼容。
戴尔如何看待未来硬件集成的趋势?
异构多元化、集群化、以及资源细粒度的调配与池化,是我们认为AI系统及硬件技术未来的演进。
英伟达与合作伙伴合作的成功案例中,哪些是基于共同研发或技术整合的?
NVIDIA拥有最广阔的AI生态。在面向企业用户提供AI 服务的过程中,NVIDIA作为软硬件工具的提供者,都是通过各方面的合作伙伴交付。
AI Foundry三大支柱具体包括哪些技术?它们如何协同工作以支持AI应用?
AI foundry包括算力服务,NIM以及NeMo Microservices.
针对企业级AI应用,提供了哪些具体的技术支持和服务?
我们目前可以提供,如向量数据库RAG的部署与优化、AI数据中心整体设计、GPU池化与虚拟化、AI+HPC等技术咨询与部署服务。
AI基础设施领域面临的最大挑战是什么?
AI技术部署中如何考虑可持续发展和环保因素?
AI数据中心的节能设计、AI计算服务器的碳足迹追踪报告,是我们目前正在做的工作。
AI领域的全球扩展战略是什么样的?
AI行业应用落地,以及如何解决AI产业化的算力与存力的需求,是目前AI在全球各个区域,业界关注的焦点。
Nvidia是如何通过技术协同工作,如TensorRT与CUDA,来优化内存管理的?
https://github.com/NVIDIA/TensorRT-LLM?tab=readme-ov-file#support-matrix
在NVIDIA的战略计划中,如何看待未来工业革命的技术趋势,并具体实现这些趋势?
算力运营变为Token运营,再变为Agent运营。
如何看待GPU和CPU在AI应用中的互补性?
GPU 专注于计算密集型任务,CPU 则在其他方面发挥作用,两者相互补充,使得 AI 系统更加完善。
戴尔与其他技术提供商在AI基础设施领域有何不同?
如何评价其AI基础架构的市场竞争力?
有哪些针对特定行业的AI解决方案?
AI 新的技术趋势带来了前所未有的基础架构创新狂潮。为提高 AI 新应用,各行业企业加快推进 AI 基础架构创新建设。基于此,我们将邀请 AI 行业技术专家、戴尔 AI 架构师、NVIDIA 技术专家,共同探讨如何顺应最新趋势,推动 AI 基础设施升级,加快算力供给,解决 AI 能耗危机等话题。
-
14:00-15:00圆桌对话:人工智能革命引发
一场基础架构重塑周元剑澜码科技联合创始人吴 跃戴尔科技集团 AI 企业技术架构师
全球 CTO 大使张 旭NVIDIA 企业级软件服务专家 -
15:00-15:20携手 NVIDIA 打造企业级的
IT 基础设施平台吴 跃戴尔科技集团
AI 企业技术架构师
全球 CTO 大使 -
15:20-15:30答疑环节