⇧
✬
❮
❯
↻

综合大模型

DeepSeek 豆包 KIMI ChatGLM 讯飞星火 通义千问 文心一言
GPT-GOD Copilot Grok

控制台

阿里云 宝塔面板 微信小程序
Overleaf Google Colab Kaggle
Coze 智谱AI 百度智能云 百炼

实用工具

图片压缩 图片裁剪 在线去水印 DeepL
LaTeXLive GitMind Excalidraw
ab173(前端) iP138(驼峰) MaTools HTML格式化 HTML压缩(无注释) MD转HTML Tech.io

信息检索

百度 谷歌 Bing GitHub Gitee Gmail
𝕏 微博 Bilibili Youtube Twitch Reddit CSDN
谷歌学术 知网 CCF推荐目录 谷粉学术

其他资源

Perchance ToolBaz DeepAI Photo2Story
SteamDB SteamGridDB TIOBE

非常规搜索引擎

Xclient FileHorse AppKed
Duplichecker 画像詳細検索 Wayback Machine
Explore your Hyplusite!
Hyplus目录

Hyplus服务

💬
即时通讯
登录后可用
🧮
综合计算器
多功能科学计算工具
🗄️
加密/编码器
文本加密与内容生成
📷
图片预览
媒体文件在线演示
Hyplus设置&快捷键大全
字体缩放:
100%
复制本页面正文: ✔︎
显示/隐藏导航框 ⌥S
进入/退出最大化模式 ⌥M
切换到上一个页面 ⌥Z
切换到下一个页面 ⌥X
在新标签页中打开链接 ⌥左键单击
减小字体大小 ⌥-
增大字体大小 ⌥=
还原字体大小 ⌥0
⌥: Alt/Option  ⇧: Shift  ⌃: Control  ⌘: Command
-- 注意事项 --
iframe版KINA在各浏览器中存在轻微问题,Safari浏览器无法共享网页版存储与图片上传功能,Edge浏览器可能发生轻微布局错误
通过Hyplusite Exporter导出的页面不支持在线服务,且部分由PHP预生成的JS组件存在显示问题
Ultimate Buttons v1.3.3 by Akira37
跳至内容
Hyperplasma

Hyperplasma

实用计算机技术综合教程

  • 实用教程
    • 随机文章
    • 常规
    •  软硬件指南 (18)
    •  HyPress EX (10)
    • 全栈综合
    •  服务端开发 (47)
    •  前端·HP运维 (21)
    •  算法题解 (248)
    •  系统架构设计 (24)
    • 大数据·人工智能
    •  数据分析与应用 (36)
    •  深度学习(TSF) (26)
    •  数字资源存档 (36)
  • 应用导航
    • KINA-Next
    • 媒体库
    • 娱乐中心
    • 常用算法模板
    • NewTimesNet
    • GitHub主页
    • Gitee主页
    • 开放网盘(HyPan)
  • 登录/注册

数字资源存档

<< 大数据·人工智能

各类论文精读/陈旧杂文临时存档,不甚重要,仅供日后翻阅。根据领域分类,完整列表详见此处,善用Hyplus搜索🔍!

大数据·人工智能:

  • [LLM]:大语言模型
  • [TSF]:时间序列相关任务(长期/短期预测、插值、异常检测……)
  • [CV]:计算机视觉
  • [GDL]:图深度学习
  • [PHYS]:物理学
  • [MISC]:其他工作

科普类文章备份:

  • [HIST]:历史

[TSF] PatchTST (A Time Series is Worth 64 Words: Long-term Forecasting with Transformers)

2025年7月1日2025年6月25日 作者 Akira

Transformer系列时序预测改进模型——PatchTST A Time Series is Worth … 阅读更多

分类 数字资源存档 标签 patchtst、 时间序列预测、 transformer、 人工智能、 深度学习 1 条评论

[TSF] Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting

2025年6月25日2025年6月25日 作者 Akira

Transformer系列时序预测改进模型——Autoformer Autoformer: Decomposi … 阅读更多

分类 数字资源存档 标签 autoformer、 时间序列预测、 transformer、 人工智能、 深度学习 1 条评论

[LLM] [TSF] 原版Transformer (Attention Is All You Need)

2025年6月25日2025年6月25日 作者 Akira

Vanilla Transformer Attention Is All You Need(2017) 相关内 … 阅读更多

分类 数字资源存档 标签 时间序列预测、 大模型、 transformer、 人工智能、 深度学习 1 条评论

[PHYS] HPC与深度学习在核聚变研究中的融合创新

2025年10月5日2025年6月5日 作者 Akira

基于JET装置的CNN/RNN/VAE应用案例 D. R. Ferreira, “Using HPC infr … 阅读更多

分类 数字资源存档 标签 vae、 cnn、 rnn、 深度学习 发表评论

[CV] PointNet、PointNet++网络结构详解&PyTorch实现

2025年6月20日2025年4月11日 作者 Akira

点云深度学习开山之作——PointNet、PointNet++。使用Python(PyTorch)实现物体分类 … 阅读更多

分类 数字资源存档 标签 pointnet、 3d点云、 python、 计算机视觉 2 条评论
较早文章
较新文章
← 上一页 页面1 页面2 页面3 页面4 … 页面8 下一页 →

  • 常规 (28)
    • 软硬件指南 (18)
    • HyPress EX (10)
  • 全栈综合 (340)
    • 服务端开发 (47)
    • 前端·HP运维 (21)
    • 算法题解 (248)
    • 系统架构设计 (24)
  • 大数据·人工智能 (98)
    • 数据分析与应用 (36)
    • 深度学习(TSF) (26)
    • 数字资源存档 (36)

热点博文

  • NewTimesNet:超多变量时序长期预测
    更新于 2025年10月21日 02:10
  • 时序预测评价指标简介
    更新于 2025年10月21日 00:14
  • Markdown使用教程
    更新于 2025年10月20日 17:00
  • 媒体库:优秀影视作品鉴赏
    更新于 2025年10月20日 00:20
  • 娱乐中心: Trace of Mecord
    更新于 2025年10月19日 00:19
  • CrossOver实用功能教程&疑难解析
    更新于 2025年10月17日 21:14

您是今日第 1385 位访客
今日访问量1385
累计访问量1509946

hyperplasma_logo
© 2024-2025 Hyperplasma • 隐私政策 • 服务条款