图神经网络、大模型优化方向系列文章目录
为了方便大家根据自己的兴趣查看自己的研究方向论文,在这里进行了细分。如果有对其中的论文感兴趣的,可以查看对应的文章在论文相应的代码,方便快速上手学习,也可以借助这些代码的学习快速的写出属于自己的一篇论文。
第38届AAAI人工智能年度会议在2024年2月加拿大温哥华举行。今年的AAAI 会议投稿量突破了历史记录,共有12100篇投稿(主赛道),最终仅仅录用2342篇,录用率为23.75%。
今天主要分享若干篇收录有代码的CCF-A类AAAI会议论文,简单的概述相关的内容分享给大家,后续有什么问题,欢迎大家一起交流。(有些论文还未看,需要时间整理)
AAAI是由国际人工智能促进协会主办的年会,是人工智能领域中历史最悠久、涵盖内容最广泛的国际顶级学术会议之一,也是中国计算机学会(CCF)推荐的A类国际学术会议。更多NLP国际顶级学术会议列表介绍可以参考这篇文章:https://mp.weixin.qq.com/s/7JkKpSON8JYsH4I7XzDVZQ
一、图神经网络
1.Fine-tuning Graph Neural Networks by Preserving Graph Generative Patterns
2.Continuous-time Graph Representation with Sequential Survival Process
3.Rethinking Causal Relationships Learning in Graph Neural Networks
4.Chasing Fairness in Graphs: A GNN Architecture Perspective
5.Emotion Rendering for Conversational Speech Synthesis with Heterogeneous Graph-Based Context Modeling
6.Rethinking Dimensional Rationale in Graph Contrastive Learning from Causal Perspective
7.Fair Federated Graph Neural Networks for Personalized Recommendation
8.SAT-Based Algorithms for Regular Graph Pattern Matching
9.Learning to Optimize Permutation Flow Shop Scheduling via Graph-based Imitation Learning
二、大语言模型
1.Benchmarking Large Language Models in Retrieval-Augmented Generation
2.An Ever-Updating Benchmark for Holistic Domain Knowledge Evaluation
摘要:为了适应大型语言模型(LLM)的快速发展,迫切需要新的自然语言处理(NLP)基准。对此,我们推出了最全面的评估套件Xiezhi(獬豸),旨在评估整体领域知识。Xiezhi由516个不同学科的选择题组成,共包含249,587道题目,并附有“Xiezhi-专业”和 “Xiezhi-跨学科”两个领域特色数据集,均有15k题。通过对解题网上47个最新的LLM进行评估,结果表明最强的LLM在科学、工程学、农学、医学和艺术方面的表现有了超过人类的平均水平,但在经济学、法学、教育学、文学、历史学和管理学方面则有所欠缺。我们期待Xiezhi能帮助分析人类和LLM之间的差距,并能有助于分析LLM的重要优势和不足。
3.Can Large Language Models Understand Real-World Complex Instructions
摘要:大规模语言模型(LLMs)能够理解人类丰富的指令,其应用场景不再局限于传统自然语言处理任务。然而,LLMs在处理真实使用场景中的复杂指令时仍然面临挑战。这些复杂指令可能包含需要执行的多个任务或者需要遵循的多个约束条件,也可能包含长篇幅、噪声、异构信息和多轮对话格式的复杂输入。大模型的很多错误可以归因于无法理解复杂指令:LLMs通常会忽略任务描述中的语义约束、格式约束、数据约束等,从而无法忠实于给定的输入内容进行回答等。目前的基准测试无法全面评估LLMs理解复杂指令的能力,因为它们涵盖的指令通常是封闭且简单的。为了弥补这一不足,我们提出了CELLO,一个用于系统评估LLMs理解复杂指令能力的基准测试集,归纳了复杂指令的八个特征,并从真实场景中搜集数据从而构建了评估数据集。此外,鉴于现有评估指标存在不适用、含有偏见或者粗粒度等问题,我们建立了四个评估LLMs理解复杂指令能力的标准并将其量化为自动化指标。通过广泛的实验对比了具有代表性的中英文大模型对复杂指令理解的能力。
4.SECap: Speech Emotion Captioning with Large Language Model
5.Data-Efficient Alignment of Large Language Models with Human Feedback Through Natural Language
三、时间序列预测
四、知识图谱
1.Knowledge Graph Error Detection with Contrastive Confidence Adaption
2.Knowledge Graph Error Detection with Contrastive Confidence Adaption
3.Knowledge Graphs Meet Multi-Modal Learning: A Comprehensive Survey
这一论文并非AAAI的论文,但是可以通过这篇论文了解知识图谱的很多论文。
4.Editing Language Model-based Knowledge Graph Embeddings
五、多模态
1.LAMM: Label Alignment for Multi-Modal Prompt Learning
2.Generative-based Fusion Mechanism for Multi-Modal Tracking
摘要:尽管生成模型在众多研究任务中已经展现了较强的综合理解能力,它在多模态目标跟踪中的应用仍未被探索。因此,在此文中我们尝试使用生成式范式去解决多模态任务的核心问题-多模态信息融合。我们深入对比了两种常见的生成模型,条件生成对抗网络以及扩散模型。与传统融合范式将各个模态特征直接输入到融合网络不同,在生成式融合范式中我们将模态特征与随机噪声相结合,有效地将原始相对简单的样本对转换为困难样本对,提高了网络对噪声(无效信息)的感知能力,因此能够获得更好地跟踪性能。为了验证方法的有效性及鲁棒性,我们在2个不同的跟踪任务、3个不同的跟踪框架、4个不同的跟踪基准测试集上进行了验证实验,体现了算法较好的鲁棒性,同时在GTOT、LasHeR和RGBD1K测试集上达到了当前的最优性能。
3.Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal Structured Representations
4.T-SciQ: Teaching Multimodal Chain-of-Thought Reasoning via Mixed Large Language Model Signals for Science Question Answering
六、推荐系统
1.Temporally and Distributionally Robust Optimization for Cold-Start Recommendation
七、强化学习
1.BadRL: Sparse Targeted Backdoor Attack Against Reinforcement Learning
2.Explaining Reinforcement Learning Agents Through Counterfactual Action Outcomes
3.ReCePS: Reward Certification for Policy Smoothed Reinforcement Learning
4.Contextual Pre-planning on Reward Machine Abstractions for Enhanced Transfer in Deep Reinforcement Learning
八、扩散模型
1.Brush Your Text: Synthesize Any Scene Text on Images via Diffusion Mode
2.SPD-DDPM: Denoising Diffusion Probabilistic Models in the Symmetric Positive Definite Space
3.DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection
4.ArtBank: Artistic Style Transfer with Pre-trained Diffusion Model and Implicit Style Prompt Bank
5.AnomalyDiffusion: Few-Shot Anomaly Image Generation with Diffusion Model
6.Audio Generation with Multiple Conditional Diffusion Model
7.Compositional Text-to-Image Synthesis with Attention Map Control of Diffusion Models
8.LDMVFI: Video Frame Interpolation with Latent Diffusion Models
九、其它有趣的研究
1.DeepCalliFont: Few-shot Chinese Calligraphy Font Synthesis by Integrating
2.Text2Analysis: A Benchmark of Table Question Answering withAdvanced Data Analysis and Unclear Queries
3.Coreference Graph Guidance for Mind-Map Generation
4.Zero-1-to-3:Domain-level Zero-shot Cognitive Diagnosis via One Batch of Early-bird Students towards Three Diagnostic Obiectives
5.Enhance Sketch Recognition’s Explainability via Semantic Component-Level Parsing
6.Toward Robustness in Multi-label Classification: A Data Augmentation Strategy against Imbalance and Noise
7.Towards Automatic Boundary Detection for Human-AI Collaborative Hybrid Essay in Education
8.Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning