随着城市化和农业集约化的加剧,由于休闲时间的增加和生活水平的提高,人们对愉悦环境的需求也在上升(Guo等人,2010年)。人们对景观的期望不仅仅是作为生产或实用的空间,还希望它们能成为文化价值、休闲和身份的来源。农业景观具有多重功能,为人类提供了远超农业生产的有益功能和服务(Junge等人,2015年)。由于这些景观同时支持食品生产、生态调节和文化认同,它们经常在不同利益相关者群体之间引发竞争性期望。在这种情况下,理解景观偏好已成为将公共价值观融入土地利用规划、政策制定和可持续景观管理的重要基础(Nielsen等人,2012年)。
景观偏好是指个体对景观的主动识别和选择(Yin等人,2023年)。在评估这些偏好时,重要的是要认识到公众并不是一个同质的群体;相反,它由对景观保护或改善持有不同甚至冲突观点的个体组成(Grammatikopoulou等人,2012年)。承认这种多样性是必要的,因为将多个利益相关者的观点纳入政治决策不仅能够增强公众对政策结果的信任和接受度(Howley等人,2012年),还有助于更有效地管理农业区域(Raymond & Brown,2011年)。
关于景观偏好的实证研究传统上依赖于结构化问卷(Pe?a等人,2015年)、偏好访谈(van Zanten等人,2016年)以及基于自然性等环境属性评估感知吸引力的参与式方法(Crossman等人,2013年)。使用照片作为辅助工具在景观偏好研究中能够产生可靠的结果(Dramstad等人,2006年)。然而,这些传统方法通常资源密集、耗时且依赖人工解释,难以在更广泛的空间或社会背景下进行扩展(Tenerelli等人,2017年)。作为对这些限制的回应,社交媒体数据最近作为可扩展的替代方案受到了越来越多的关注。然而,此类内容通常反映了用户的聚合偏好,从而使得区分不同利益相关者群体的具体偏好变得复杂。
生成式人工智能(AI)的快速发展为解决景观偏好研究中的限制提供了新的机会。最初,生成式AI的重点是文本生成,例如大语言模型(LLMs)。这些模型已经普及,并越来越多地被认为能够在用户研究(Hamalainen等人,2023年)、注释任务(Gilardi等人,2023年)、计算社会科学(Ziems等人,2023年)和意见调查(Argyle等人,2023年)等领域取代成本较高的人类参与者。最近的研究表明,LLMs可以用于评估开放式故事生成文本的质量,其评估结果与人类专家的结果一致(Chiang和Lee,2023年)。此外,通过结合人类和AI驱动的评估机制,可以通过模拟具有特定角色的对话从不同视角和立场提供有价值的见解(Matsumoto等人,2024年)。LLMs在处理复杂的个体差异方面表现出色,并有助于在不同群体观点的模拟中促进共识的形成(Li等人,2024年)。LLMs展示了作为类人代理的潜力,但它们对人类行为的模拟准确性仍需进一步研究(Veselovsky等人,2025年)。
在景观偏好研究中,视觉和文本数据对于全面理解人类的感知和评估都至关重要。然而,传统的单一模态基于文本的模型在完全捕捉这些视觉方面存在局限性。多模态大语言模型(MLLMs)的出现,如Chat Generative Pre-Trained Transformer(GPT)-4o(OpenAI)、Kosmos-2.5(Microsoft)和Qwen3(Alibaba)(Huang等人,2023年),通过结合文本交互能力和图像理解解决了这一限制。现代MLLMs作为生成式AI的强大扩展,已经发展成为多功能助手,能够从简单的文本输入自动分析景观图像,从而降低了在景观研究中使用AI的技术障碍,使从多个利益相关者角度进行景观偏好评估变得更加可行。
最近的研究表明,像GPT-4这样的模型可以分析城市街道场景图像,根据预定义的标准识别关键景观特征并对景观进行评分(Malekzadeh等人,2025年)。此外,使用ChatGPT-4和LLaVA模型评估自然景观在与复杂性、连贯性、神秘感和整体偏好等维度上与人类判断显示出显著的相关性(Tung等人,2025年)。尽管MLMMs在景观偏好评估方面具有巨大潜力(Zhang等人,2025年),但它们在模仿人类感知方面的能力,尤其是在不同利益相关者群体之间,尚未得到充分验证。此外,随着AI辅助工具越来越多地融入景观和环境研究,研究结果也表现出日益多样性。一些研究报告AI生成的结果与人类评估高度一致,而其他研究则表明MLMMs的景观感知与人类偏好经常不一致(Huang等人,2024年;Liu等人,2025年)。这种变异性突显了系统评估AI和人类评估之间一致性的必要性,并需要制定策略来更好地解决模型输出与人类评估之间的差异。减少这种感知差异可以提高AI评估的可靠性,并支持可扩展的可持续景观管理。
当前的研究主要集中在MLMMs是否能够模拟人类行为上。然而,如何提高模型评估结果与人类认知之间的一致性仍然是一个持续研究的领域。提示工程已被证明可以有效减轻MLMMs中的某些类型的偏见(Chung等人,2024年)。尽管如此,识别能够优化评估一致性的具体提示仍然是一个关键挑战。此外,MLMMs的训练方法固有的局限性使得捕捉不同身份群体的细微差别变得困难,从而限制了它们在替代主观评估任务中的适用性。因此,虽然MLMMs在模拟不同利益相关者的景观偏好评估方面具有巨大潜力,但需要进一步的技术进步和理论发展以实现更高的一致性和更广泛的适用性。
本研究的主要目的是探讨生成式AI技术在模拟多个利益相关者视角的景观偏好评估方面的潜力和局限性。具体来说,本研究旨在回答以下问题:
(1)MLMMs在多大程度上能够反映多个利益相关者的景观偏好评估?
(2)人类和MLMMs评估之间的差异来源是什么?
(3)如何减少MLMMs和人类评估之间的差距?