网站关键词排名外包,制做网站首先应该怎么做,怎样开发一个网站,安溪网站建设图神经网络、大模型优化方向系列文章目录
为了方便大家根据自己的兴趣查看自己的研究方向论文#xff0c;在这里进行了细分。如果有对其中的论文感兴趣的#xff0c;可以查看对应的文章在论文相应的代码#xff0c;方便快速上手学习#xff0c;也可以借助这些代码的学习快…图神经网络、大模型优化方向系列文章目录
为了方便大家根据自己的兴趣查看自己的研究方向论文在这里进行了细分。如果有对其中的论文感兴趣的可以查看对应的文章在论文相应的代码方便快速上手学习也可以借助这些代码的学习快速的写出属于自己的一篇论文。
第38届AAAI人工智能年度会议在2024年2月加拿大温哥华举行。今年的AAAI 会议投稿量突破了历史记录共有12100篇投稿主赛道最终仅仅录用2342篇录用率为23.75%。
今天主要分享若干篇收录有代码的CCF-A类AAAI会议论文简单的概述相关的内容分享给大家后续有什么问题欢迎大家一起交流。有些论文还未看需要时间整理
AAAI是由国际人工智能促进协会主办的年会是人工智能领域中历史最悠久、涵盖内容最广泛的国际顶级学术会议之一也是中国计算机学会CCF推荐的A类国际学术会议。更多NLP国际顶级学术会议列表介绍可以参考这篇文章https://mp.weixin.qq.com/s/7JkKpSON8JYsH4I7XzDVZQ
一、图神经网络
1.Fine-tuning Graph Neural Networks by Preserving Graph Generative Patterns
2.Continuous-time Graph Representation with Sequential Survival Process
3.Rethinking Causal Relationships Learning in Graph Neural Networks
4.Chasing Fairness in Graphs: A GNN Architecture Perspective
5.Emotion Rendering for Conversational Speech Synthesis with Heterogeneous Graph-Based Context Modeling
6.Rethinking Dimensional Rationale in Graph Contrastive Learning from Causal Perspective
7.Fair Federated Graph Neural Networks for Personalized Recommendation
8.SAT-Based Algorithms for Regular Graph Pattern Matching
9.Learning to Optimize Permutation Flow Shop Scheduling via Graph-based Imitation Learning
二、大语言模型
1.Benchmarking Large Language Models in Retrieval-Augmented Generation
2.An Ever-Updating Benchmark for Holistic Domain Knowledge Evaluation 摘要为了适应大型语言模型LLM的快速发展迫切需要新的自然语言处理NLP基准。对此我们推出了最全面的评估套件Xiezhi獬豸旨在评估整体领域知识。Xiezhi由516个不同学科的选择题组成共包含249,587道题目并附有“Xiezhi-专业”和 “Xiezhi-跨学科”两个领域特色数据集均有15k题。通过对解题网上47个最新的LLM进行评估结果表明最强的LLM在科学、工程学、农学、医学和艺术方面的表现有了超过人类的平均水平但在经济学、法学、教育学、文学、历史学和管理学方面则有所欠缺。我们期待Xiezhi能帮助分析人类和LLM之间的差距并能有助于分析LLM的重要优势和不足。
3.Can Large Language Models Understand Real-World Complex Instructions 摘要大规模语言模型LLMs能够理解人类丰富的指令其应用场景不再局限于传统自然语言处理任务。然而LLMs在处理真实使用场景中的复杂指令时仍然面临挑战。这些复杂指令可能包含需要执行的多个任务或者需要遵循的多个约束条件也可能包含长篇幅、噪声、异构信息和多轮对话格式的复杂输入。大模型的很多错误可以归因于无法理解复杂指令LLMs通常会忽略任务描述中的语义约束、格式约束、数据约束等从而无法忠实于给定的输入内容进行回答等。目前的基准测试无法全面评估LLMs理解复杂指令的能力因为它们涵盖的指令通常是封闭且简单的。为了弥补这一不足我们提出了CELLO一个用于系统评估LLMs理解复杂指令能力的基准测试集归纳了复杂指令的八个特征并从真实场景中搜集数据从而构建了评估数据集。此外鉴于现有评估指标存在不适用、含有偏见或者粗粒度等问题我们建立了四个评估LLMs理解复杂指令能力的标准并将其量化为自动化指标。通过广泛的实验对比了具有代表性的中英文大模型对复杂指令理解的能力。
4.SECap: Speech Emotion Captioning with Large Language Model
5.Data-Efficient Alignment of Large Language Models with Human Feedback Through Natural Language
三、时间序列预测
四、知识图谱
1.Knowledge Graph Error Detection with Contrastive Confidence Adaption
2.Knowledge Graph Error Detection with Contrastive Confidence Adaption
3.Knowledge Graphs Meet Multi-Modal Learning: A Comprehensive Survey 这一论文并非AAAI的论文但是可以通过这篇论文了解知识图谱的很多论文。
4.Editing Language Model-based Knowledge Graph Embeddings
五、多模态
1.LAMM: Label Alignment for Multi-Modal Prompt Learning
2.Generative-based Fusion Mechanism for Multi-Modal Tracking
摘要尽管生成模型在众多研究任务中已经展现了较强的综合理解能力它在多模态目标跟踪中的应用仍未被探索。因此在此文中我们尝试使用生成式范式去解决多模态任务的核心问题-多模态信息融合。我们深入对比了两种常见的生成模型条件生成对抗网络以及扩散模型。与传统融合范式将各个模态特征直接输入到融合网络不同在生成式融合范式中我们将模态特征与随机噪声相结合有效地将原始相对简单的样本对转换为困难样本对提高了网络对噪声无效信息的感知能力因此能够获得更好地跟踪性能。为了验证方法的有效性及鲁棒性我们在2个不同的跟踪任务、3个不同的跟踪框架、4个不同的跟踪基准测试集上进行了验证实验体现了算法较好的鲁棒性同时在GTOT、LasHeR和RGBD1K测试集上达到了当前的最优性能。 3.Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal Structured Representations
4.T-SciQ: Teaching Multimodal Chain-of-Thought Reasoning via Mixed Large Language Model Signals for Science Question Answering
六、推荐系统
1.Temporally and Distributionally Robust Optimization for Cold-Start Recommendation
七、强化学习
1.BadRL: Sparse Targeted Backdoor Attack Against Reinforcement Learning 2.Explaining Reinforcement Learning Agents Through Counterfactual Action Outcomes 3.ReCePS: Reward Certification for Policy Smoothed Reinforcement Learning 4.Contextual Pre-planning on Reward Machine Abstractions for Enhanced Transfer in Deep Reinforcement Learning
八、扩散模型
1.Brush Your Text: Synthesize Any Scene Text on Images via Diffusion Mode
2.SPD-DDPM: Denoising Diffusion Probabilistic Models in the Symmetric Positive Definite Space
3.DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection
4.ArtBank: Artistic Style Transfer with Pre-trained Diffusion Model and Implicit Style Prompt Bank
5.AnomalyDiffusion: Few-Shot Anomaly Image Generation with Diffusion Model
6.Audio Generation with Multiple Conditional Diffusion Model
7.Compositional Text-to-Image Synthesis with Attention Map Control of Diffusion Models
8.LDMVFI: Video Frame Interpolation with Latent Diffusion Models
九、其它有趣的研究
1.DeepCalliFont: Few-shot Chinese Calligraphy Font Synthesis by Integrating
2.Text2Analysis: A Benchmark of Table Question Answering withAdvanced Data Analysis and Unclear Queries
3.Coreference Graph Guidance for Mind-Map Generation
4.Zero-1-to-3:Domain-level Zero-shot Cognitive Diagnosis via One Batch of Early-bird Students towards Three Diagnostic Obiectives
5.Enhance Sketch Recognition’s Explainability via Semantic Component-Level Parsing
6.Toward Robustness in Multi-label Classification: A Data Augmentation Strategy against Imbalance and Noise
7.Towards Automatic Boundary Detection for Human-AI Collaborative Hybrid Essay in Education
8.Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning