皮皮读书 通过搜索各大小说站为您自动抓取各类小说的最快更新供您阅读!

最近AI圈的大佬李飞飞在访谈里分享了关于AI发展的核心观点,很多人听完觉得“高深莫测”——一会儿说“通用AI还很遥远”,一会儿提“世界模型是下一个方向”,还有“3d空间智能”“可自由导航的3d世界”这些专业词,让人摸不着头脑。

其实李飞飞的核心意思特别好懂:现在咱们用的AI(比如chatGpt、豆包)虽然能写文案、答问题,但本质上是“只会读文字、看图片的学霸”,根本不懂真实世界的3d空间逻辑;而未来的AI要想更实用,得先学会“看懂3d世界、构建3d世界”,这就是“世界模型”要干的事。她创办的公司worldlives已经做出了全球首个大型世界模型产品marble,能根据文字或图片生成可自由走的3d场景,这事儿在游戏、机器人、虚拟制造等领域用处极大。

今天咱们就用最通俗的大白话,把李飞飞的访谈观点拆解开讲,从“现在的AI差在哪”“世界模型到底是啥”“能落地到哪些场景”这几个方面,让不管是懂技术还是不懂技术的人,都能把这件事看透。

一、先搞懂前提:现在的AI再强,也“看不懂真实世界”

李飞飞说“当前语言模型进步显着,但离通用AI还很远”,这句话戳中了现在AI的核心痛点——咱们觉得AI很聪明,其实它只是“文字游戏高手”,根本没有对真实世界的“空间认知”。

咱们先举个生活化的例子:你跟现在的AI说“帮我设计一个100平米的两居室,客厅要朝南,卧室带飘窗,厨房挨着餐厅”,AI能给你写一堆文字描述,甚至画一张2d户型图,但它根本不知道“朝南的客厅阳光怎么照进来”“卧室飘窗的高度该多少才实用”“厨房和餐厅之间留多大过道才方便上菜”——因为它不懂3d空间的物理逻辑,不知道“上下左右、前后远近”的真实关系,更不懂人和空间的互动。

再比如,你给AI看一张“沙发放在客厅中间”的图片,让它“把沙发挪到墙角,再放一张茶几在沙发前面”,AI能生成一张修改后的2d图,但它不知道“沙发挪到墙角后,会不会挡住插座”“茶几的尺寸和沙发能不能匹配”“人坐在沙发上能不能够到茶几”——这些都是真实世界里的3d空间逻辑,现在的AI完全没概念。

李飞飞之所以这么说,是因为她当年创建的ImageNet数据集,是深度学习革命的“基石”——正是因为有了这个包含海量图片的数据集,AI才学会了“识别图片里的东西”(比如区分猫和狗、沙发和茶几),但这只是“2d平面识别”,不是“3d空间理解”。

简单说,现在的AI就像“纸上谈兵的将军”:熟读兵书(文字、图片数据),能把战术说得头头是道,但从来没上过真实战场(3d物理世界),不知道地形、距离、障碍物这些实际因素会影响决策。而李飞飞认为,AI要想往通用智能走,第一步就得从“纸上谈兵”变成“实地作战”,先学会理解3d空间,这就是“世界模型”的核心意义。

二、核心解读:世界模型到底是啥?和语言模型有啥本质区别?

李飞飞说“世界模型将成为AI发展的下一个重要方向”,还强调它和语言模型“有本质区别”。很多人会问:“不都是AI模型吗?差别能有多大?”

其实用一句话就能说透:语言模型是“处理文字信息的AI”,世界模型是“理解3d空间、构建3d世界的AI” ——一个专注于“文字逻辑”,一个专注于“物理空间逻辑”,完全是两个不同的赛道。

咱们用“大白话对比表”,把两者的区别讲得明明白白:

1. 核心能力:一个“读文字”,一个“懂空间”

- 语言模型(比如Gpt、豆包):核心能力是“理解文字、生成文字”。你给它一段文字,它能读懂意思;你让它写文案、写报告、答问题,它能快速输出文字答案。它就像一个“超级文案+知识库”,擅长处理所有和文字相关的事,但只要涉及3d空间、物理互动,它就歇菜了。

- 世界模型(比如marble):核心能力是“理解3d空间关系、构建可交互的3d世界”。你给它一句文字“一个有山有水的公园,里面有长椅、滑梯和喷泉”,它能生成一个完整的3d公园场景;你让它“在公园门口加一个大门,在滑梯旁边种三棵树”,它能精准修改,而且你还能“走进”这个3d场景里,自由走动、查看细节——就像玩3d游戏一样。它就像一个“3d世界造物主+导航员”,擅长把文字、图片变成可交互的3d空间。

2. 思考逻辑:一个“靠文字联想”,一个“靠物理规律”

- 语言模型的思考逻辑是“文字接龙+联想”:比如你问“下雨了该怎么办”,它会从训练数据里找到“下雨→带伞、穿雨衣、躲雨”这些文字关联,然后组合成答案。它根本不知道“雨是从天上掉下来的”“伞能挡住雨”这些物理规律,只是靠文字之间的关联来回答。

- 世界模型的思考逻辑是“物理规律+空间推理”:比如你让它生成“下雨的公园”,它不仅会在3d场景里加上“雨滴下落”的效果,还会考虑“雨滴落在长椅上会往下流”“地面湿了会有反光”这些物理规律;如果你让“虚拟人”在雨里走,它还会让虚拟人“撑起伞”,避免被雨淋——这都是基于对物理世界的理解,而不是文字联想。

3. 输出结果:一个“给静态文字\/图片”,一个“给动态3d世界”

- 语言模型的输出是“静态的”:不管是写文案、画2d图,还是答问题,输出的结果都是“不能互动的”。比如它给你画的2d户型图,你不能进去走,也不能调整家具位置;它给你写的旅行攻略,你只能看文字,不能“身临其境”。

- 世界模型的输出是“动态可交互的”:它生成的是3d世界,你可以用鼠标、键盘控制视角,在里面自由导航——比如走进3d公园的大门,绕着喷泉走一圈,坐在长椅上看滑梯,甚至可以调整太阳的角度,看看不同时间的光影效果。这种“可交互性”,是语言模型完全做不到的。

4. 应用场景:一个“办公、娱乐”,一个“生产、实操”

- 语言模型的应用场景主要是“轻量级的文字处理”:比如写工作报告、社交媒体文案、回答咨询、翻译文档等,都是和“信息传递”相关的场景,不用涉及物理世界的互动。

- 世界模型的应用场景主要是“重量级的实操场景”:比如游戏开发(生成3d游戏地图)、机器人导航(让机器人看懂真实环境)、虚拟制造(在3d空间里模拟生产流程)等,都是需要“和物理空间互动”的场景。

简单总结:语言模型解决的是“信息层面”的问题,让人和AI的信息交流更顺畅;世界模型解决的是“物理层面”的问题,让AI能看懂、构建、互动真实世界。李飞飞认为,只有把这两种模型结合起来,AI才能真正走向通用智能——比如未来的AI助手,既能听懂你的文字指令,又能在3d世界里帮你完成实操任务(比如设计房子、模拟生产、控制机器人干活)。

三、实操拆解:世界模型是怎么工作的?用文字就能生成3d世界?

李飞飞提到她创办的worldlives公司,用18个月就做出了全球首个大型世界模型产品marble,能“根据文字和图片提示生成可自由导航的3d世界”。很多人会好奇:“这到底是怎么实现的?难道AI真能‘无中生有’造3d世界?”

其实marble的工作原理一点都不神秘,核心就是“三步走”,和咱们平时画画、做手工的逻辑差不多,只是把“人动手”变成了“AI自动做”:

第一步:读懂“指令”——把文字\/图片变成“3d需求清单”

首先,marble要先理解你给的提示——不管是文字还是图片,它都会先拆解成“3d世界的关键要素”,就像你要做手工前,先列好“需要什么材料、做什么形状、颜色是什么”。

比如你输入文字提示“一个复古风格的咖啡馆,面积50平米,有吧台、木质桌椅、复古吊灯,墙面是浅棕色,地板是深色木地板”,marble会拆解成这样的“3d需求清单”:

- 空间大小:50平米,长方体结构;

- 核心物体:吧台(材质:木质,颜色:深棕色,位置:进门左侧)、桌椅(10套,材质:木质,颜色:浅棕色,位置:吧台对面)、复古吊灯(8个,材质:金属+玻璃,颜色:金色,位置:天花板均匀分布);

- 环境细节:墙面颜色(浅棕色)、地板材质(深色木地板)、风格(复古)。

如果你给的是一张“海边小屋”的图片,marble会先识别图片里的关键元素(小屋、大海、沙滩、椰子树),再还原它们的3d关系(小屋在沙滩上,大海在小屋前方,椰子树在小屋旁边),然后形成“3d需求清单”。

这一步的关键是:marble不仅能识别“有什么东西”,还能理解“这些东西在3d空间里的位置关系”,这是语言模型做不到的——语言模型只能告诉你“海边小屋有沙滩和大海”,但不知道“沙滩在小屋前面,大海在沙滩前面”。

第二步:构建“骨架”——生成3d空间的基础结构

理解需求后,marble会先搭建3d世界的“骨架”,也就是空间结构和物体的大致形状,就像盖房子先搭钢筋水泥框架,再砌墙。

比如构建复古咖啡馆的“骨架”:

- 先画一个50平米的长方体空间,确定墙面、天花板、地板的位置;

- 再在空间里放置“简化版物体”:用长方体代表吧台,用小长方体+平板代表桌椅,用圆柱体+球体代表吊灯;

- 确定物体的相对位置:吧台在进门左侧,桌椅在中间区域,吊灯在天花板下方,确保物体之间不重叠(比如桌椅不会穿过吧台,吊灯不会碰到桌子)。

这一步的核心是“空间推理”:marble要确保所有物体的大小、位置都符合物理逻辑——比如吧台的高度大概1.2米,桌椅的高度大概0.7米,吊灯离地板的高度大概2.5米,这些都是基于真实世界的物理尺寸,不会出现“吧台比人还高”“桌椅嵌在墙里”的离谱情况。

第三步:填充“细节”——让3d世界更真实,还能自由导航

最后,marble会给“骨架”填充细节,让3d世界变得逼真,同时开启“导航功能”,让你能在里面自由走动。

比如填充咖啡馆的细节:

- 材质和纹理:给吧台加上木质纹理,给墙面加上浅棕色涂料质感,给地板加上深色木纹,给吊灯加上金色金属光泽;

- 光影效果:模拟自然光从窗户照进来,在地面形成光斑;吊灯发光,照亮桌椅区域,产生阴影;

- 小装饰:在吧台上加咖啡机、杯子,在墙上挂复古海报,在桌子上放花瓶,让场景更生动;

- 导航功能:设置“虚拟摄像头”,你可以用鼠标控制摄像头移动,就像自己走进咖啡馆一样——往前走、往后退、左转、右转,甚至可以凑近吧台看咖啡机的细节,或者坐在椅子上看墙上的海报。

整个过程下来,从输入文字到生成可导航的3d世界,只需要几分钟。而且marble还能根据你的新指令修改场景——比如你说“把吧台移到进门右侧,再加两个靠窗的座位”,它会快速调整物体位置,同时保持空间逻辑和光影效果的一致性,不会出现“靠窗座位挡住窗户”“移动后的吧台和桌椅重叠”的问题。

李飞飞之所以说这是“重要突破”,是因为以前生成3d世界需要专业的建模师,用3dmax、maya等软件手动制作,一个简单的场景就要花几天时间;而现在有了世界模型,普通人不用懂建模,只要会写文字、会传图片,就能快速生成3d场景,大大降低了3d内容创作的门槛。

四、落地前景:世界模型能用到哪些地方?这些行业要变天了

李飞飞提到,世界模型技术已在“虚拟制造、游戏开发、机器人创建的视界领域展现出广阔前景”。其实不止这几个领域,只要涉及“3d空间、物理互动”的行业,世界模型都能发挥巨大作用。咱们用通俗的例子,讲讲它最实用的几个落地场景:

1. 游戏开发:不用建模师,文字就能生成游戏地图

以前做一款3d游戏,最耗时的就是“地图建模”——建模师要手动画地形、放物体、调光影,一个中等大小的游戏地图可能要花几周时间。而且一旦游戏要更新地图,又得重新建模,效率特别低。

有了世界模型(比如marble),游戏开发就简单了:

- 策划师输入文字提示“一个科幻风格的星球基地,有飞船降落平台、能量护盾、控制室,周围有陨石坑和山脉”;

- 世界模型几分钟内生成可导航的3d基地地图,还能自动添加“飞船起飞特效”“能量护盾发光效果”“陨石坑阴影”等细节;

- 开发团队可以直接在这个3d地图上做后续开发,比如添加游戏角色、设置任务点;如果要修改地图,只要改文字提示(比如“在基地旁边加一个外星村落”),模型就会自动更新。

这能让游戏开发的周期缩短一半以上,小团队也能快速做出高质量的3d游戏,不用再依赖昂贵的建模团队。

2. 虚拟制造:在3d世界里“模拟生产”,减少浪费

制造业的痛点之一是“试错成本高”——比如开发一条新的生产线,要先搭建物理原型,测试流程是否顺畅,一旦发现问题(比如设备布局不合理、物料运输路线太长),就得拆了重新搭,既费钱又费时间。

世界模型能帮制造业实现“虚拟试产”:

- 工程师输入文字提示“一条手机组装生产线,包含零件输送带、组装机器人、检测设备,流程是:零件输送→机器人组装→检测→包装”;

- 世界模型生成3d生产线场景,还原所有设备的位置和工作流程;

- 工程师可以在3d场景里“模拟生产”:让虚拟的零件在输送带上移动,看机器人能不能精准抓取,检测设备能不能识别不合格产品,物料运输路线有没有浪费;

- 如果发现问题,比如“组装机器人和检测设备之间的距离太远,导致输送时间过长”,可以直接在3d场景里调整设备位置,再重新模拟,直到流程最优。

这样一来,不用搭建物理原型,就能在虚拟世界里完成生产线的优化,试错成本降低90%以上,还能缩短生产线上线时间。

3. 机器人导航:让机器人“看懂”真实环境,不会迷路

现在的机器人(比如扫地机器人、工业机器人),大多是靠“预设地图”或“传感器避障”导航——如果环境里出现新的障碍物(比如地上放了一个箱子),或者预设地图和真实环境不一致(比如家具被挪动了),机器人就容易迷路或卡住。

世界模型能让机器人拥有“空间理解能力”:

- 机器人通过摄像头拍摄真实环境(比如家里的客厅),把图片传给世界模型;

- 世界模型快速生成客厅的3d地图,识别出“沙发、茶几、电视、箱子”等物体,以及它们的位置关系;

- 机器人根据3d地图规划最优路线:比如要打扫客厅,会绕开沙发和茶几,避开地上的箱子,不会重复打扫,也不会遗漏角落;

- 如果环境变化(比如主人把茶几挪到了另一边),机器人会重新拍摄图片,世界模型更新3d地图,机器人也会调整路线,不用重新预设。

这能让机器人更“聪明”,适应复杂多变的真实环境,不管是家庭服务机器人还是工业机器人,实用性都会大幅提升。

4. 建筑设计:快速生成3d户型,实时调整方案

以前建筑师设计房子,要先画2d图纸,再用3d软件建模,客户想修改方案(比如“把卧室的窗户改大一点”“在客厅加一个阳台”),建筑师得重新改图纸、调模型,来回沟通好几次才能定版,效率很低。

世界模型能让建筑设计“实时互动”:

- 建筑师输入文字提示“120平米三居室,客厅朝南,主卧带独立卫生间,厨房是开放式”;

- 世界模型几分钟内生成3d户型图,客户可以在3d场景里自由查看:走进每个房间,看窗户的大小、家具的布局,甚至能模拟不同时间的采光效果(比如早上9点的阳光、下午3点的阳光);

- 客户说“想把主卧的窗户改大,厨房加一个隔断”,建筑师直接修改文字提示,世界模型实时更新3d户型,客户马上就能看到修改后的效果,不用等建筑师重新建模。

这能让设计师和客户的沟通更高效,减少修改次数,还能让客户更直观地感受到未来的家,提升满意度。

5. 虚拟现实(VR)\/增强现实(AR):打造更真实的虚拟场景

VR\/AR的核心是“让用户沉浸在虚拟场景里”,但现在很多VR\/AR场景都是手动建模的,场景单一、互动性差——比如VR游戏里的场景不能修改,AR导航里的虚拟路标和真实环境不匹配。

世界模型能让VR\/AR场景“更真实、更灵活”:

- 比如VR旅游:用户输入“想去巴黎埃菲尔铁塔下的咖啡馆”,世界模型生成1:1还原的3d场景,用户戴上VR眼镜,就能“身临其境”地坐在咖啡馆里,看埃菲尔铁塔的风景,甚至能和虚拟的服务员互动;

- 比如AR导航:用户用手机拍摄街道,世界模型生成街道的3d地图,AR虚拟路标会精准叠加在真实街道上,比如“往前50米左转”“目标在你的右手边”,不管用户怎么移动,虚拟路标都会跟着3d地图调整位置,不会出现“路标跑偏”的情况。

这能让VR\/AR的沉浸感和实用性大幅提升,不管是旅游、导航,还是教育培训(比如用VR模拟实验场景),都会有更好的体验。

五、关键提醒:李飞飞为啥说“通用AI还很遥远”?世界模型不是万能的

虽然世界模型是AI的重要突破,但李飞飞并没有夸大其词,反而强调“离真正的通用人工智能还很遥远”。这是因为世界模型虽然解决了“3d空间理解”的问题,但还有两个核心难题没解决,而这两个难题是通用AI的关键:

1. 缺乏“常识推理”能力

现在的世界模型能理解“物理空间关系”,但不懂“人类的常识”。比如你让它生成“一个妈妈在厨房做饭,孩子在客厅玩玩具”的3d场景,它能准确放置妈妈、厨房、孩子、玩具的位置,但它不知道“妈妈做饭时会注意火候,避免烧糊”“孩子玩玩具时不会把玩具扔到厨房的锅里”——这些都是人类的常识,但AI没有这种“生活经验”,只能靠训练数据里的信息来生成场景,无法做出符合常识的推理。

再比如,你让世界模型生成“一个人站在结冰的湖面上”,它能生成冰面和人的3d场景,但它不知道“冰面如果太薄,人站上去会掉下去”,也不会模拟“冰面破裂”的效果——因为它没有“冰的承重能力”这种常识,只能还原表面的空间关系,不能理解背后的逻辑。

2. 缺乏“自主学习”和“跨场景迁移”能力

现在的世界模型需要“人类给明确提示”才能生成3d场景,不能自己“观察世界、学习新知识”。比如它能根据“海边小屋”的文字提示生成3d场景,是因为训练数据里有大量海边小屋的图片和3d模型;但如果遇到一个“从来没见过的场景”(比如“一个会飞的房子,屋顶是太阳能板,窗户是透明的石墨烯”),而且训练数据里没有相关信息,它就无法生成准确的3d场景。

另外,世界模型的能力只能在“3d空间场景”里发挥,不能跨场景迁移——比如它能生成3d游戏地图,但不能同时帮你写游戏文案;能模拟生产线流程,但不能帮你分析生产数据。而通用AI需要具备“跨领域、跨场景”的能力,既能处理文字、数据,又能理解空间、物理,还能自主学习新知识,这对现在的技术来说,还有很长的路要走。

李飞飞作为AI圈的资深专家,之所以强调这一点,是怕大家过度神化AI技术——世界模型是重要进步,但它只是AI走向通用智能的“一步”,而不是“终点”。未来还需要把世界模型和语言模型、常识推理模型等结合起来,才能慢慢靠近通用AI。

六、总结:世界模型的核心价值——让AI从“读懂文字”到“读懂世界”

李飞飞的访谈核心,其实是给AI的发展指了一个明确的方向:以前的AI是“信息处理工具”,未来的AI要变成“世界交互工具”;以前的AI只需要“读懂文字”,未来的AI必须“读懂世界”。

世界模型的出现,正是这个方向的第一个重要突破——它让AI第一次具备了“理解3d空间、构建3d世界、和3d世界互动”的能力,把AI从“文字的牢笼”里解放出来,推向了更真实的物理世界。

对普通人来说,世界模型会让AI的应用更“接地气”——以后设计房子不用等设计师建模,玩游戏能自己生成地图,机器人能听懂指令还能灵活导航;对企业来说,世界模型能大幅降低3d内容创作、生产试错、产品开发的成本,提升效率;对AI行业来说,世界模型打开了新的赛道,让AI不再只局限于文字处理,而是能深入到制造业、建筑业、游戏、机器人等更多实体行业。

但我们也要记住李飞飞的提醒:通用AI还很遥远,世界模型不是万能的。它现在能做的,是“精准还原和构建3d空间”,但还不懂常识、不会自主学习。未来的AI发展,需要在世界模型的基础上,不断攻克常识推理、自主学习等难题,才能慢慢走向真正的通用智能。

不过不管怎么说,世界模型的出现都是AI行业的一个重要里程碑——就像李飞飞当年的ImageNet数据集开启了深度学习革命一样,世界模型可能会开启“AI读懂物理世界”的新时代。咱们可以期待一下,未来的AI不仅能陪你聊天、写文案,还能帮你设计房子、模拟生产、控制机器人干活,甚至和你一起“走进”虚拟世界里探险。

皮皮读书推荐阅读:电竞男神不好惹纵情死后睁眼重回婚前,踹渣男嫁军官女主重生后,每天都想锤人倾世华歌:千古白衣卿全新的穿越到洪荒大陆未开的时候前妻的春天1852铁血中华四合院之我总能置身事外神游悲郁地崩坏:身在特摄的逐火之旅旺财命订九命猫妖盛世帝女王爷太妖孽:腹黑世子妃隐秘偷欢和顶流亲弟上种田综艺后我爆红了东北那边的怪谈惹不起,国家霸霸都要抱紧她大腿异界之不灭战神人在斩神,身患绝症签到原神七神火烧的燎原星光的新书算命直播抓鬼穿成大佬姐姐的妹妹后放飞自我了四合院:身在民间,心向红星我错了姐姐,再打哭给你看穿越虫族之奇遇我曾爱过你,但不做男主白月光,我做反派掌中雀女将军的病娇公主夫人【魔道同人】我在夷陵养阿婴修真界白月光手握舔狗师姐剧本云中月之残月孤灯霍格沃茨的冒牌巫师枯萎的碎冰蓝横行港诡,从掠夺僵尸开始牵着我的你劫与解重生女帝之天尊掌中三寸金莲开局举报继父,病弱女配下乡被宠秦云萧淑妃四合院:阎家老二是个挂比游走诸天,全靠暗黑技能多!亿万婚约:她的财富帝国神临九天:斩邪上了大学你们异能者就不用考试了参演无限副本后,我成了顶流戮魔道大佬带着异能空间在七零霸道虐渣人在星铁,但是p社活阎王病娇孽徒的白月光竟是我
皮皮读书搜藏榜:谁家炉鼎师尊被孽徒抱在怀里亲啊开局公司破产,在娱乐圈咸鱼翻身山海探秘之陌途棹渡纤尘山大杂院:人间烟火气小师祖真不浪,她只是想搞钱一剑,破长空你出轨我重生,做你女儿给你送终!穿书后,抢了女主万人迷的属性被雷劈后:我在地球忙着种田穿成养猪女,兽医她乐了小家族的崛起从弃婴到总裁八零军婚:阵亡的糙汉丈夫回来了给你一颗奶糖,很甜哒!原神:我给散兵讲童话影视快穿之宿主她不按套路出牌魔法之勋章穿越女尊,成为美男收割机原神:始源律者的光辉照耀提瓦特中奖一亿后我依旧选择做社畜农女有财被造谣后,丑妃闪婚病弱摄政王平安修行记荒年全国躲旱尸,我有空间我不虚美艳大师姐,和平修仙界困惑人生名剑美人[综武侠]仙界崩坏,落魄神仙下岗再就业妃常不乖:王爷别过来快穿囤货:利已的我杀疯了犯罪直觉:神探少女全职法师炸裂高手【观影体】森鸥外没有出现过超级农场系统死后:偏执王爷他为我殉葬了最强狂婿叶凡秋沐橙臣与陛下平淡如水蓄意撩惹:京圈二爷低头诱宠安老师!你的病弱前男友洗白啦盗墓:她来自古武世界荒野直播:小糊咖被毛绒绒包围了逆水沉舟寻晴记各天涯铁马飞桥新书无敌邪神伏阴【又名:后妈很凶残】古穿今:七零空间福运崽崽逼我断亲,住牛棚我暴富你们哭啥
皮皮读书最新小说:玄尘征道前夫总裁的火葬场指南离婚后,陆总跪求我捐髓大槐树下有人家罚罪:时空追凶录玫瑰苦刑契约成婚:傅先生的高智商甜妻新长相思之小夭盼得相柳归拈花录,仙山有佳人五零:穿越小菜鸟苟在激情年代我在星墟苟成农场主被调包的小郡主,她奶凶奶凶的金光闪烁:我在远月冲上云霄重生之古宫逆世原创新作恐怖故事传说羁绊:不败的勇者毒妇万贵妃逢灯纪Amazon世界中的假面骑士七零空间:倒霉大佬的锦鲤娇妻快穿之尽享荣华盗笔:我成了汪家头号死敌每个世界死遁后,男主都疯了四合院:四级厂医,截胡秦淮茹HP:这家伙一直在笑修仙:爷们居然化形成小萝莉我的男宠遍布现代和古代宁王囚婳:孽缘情深年轻的修士哟,哪个是你丢的娘子重生撕毁离婚申请,随军夜被宠哭圣道洪荒之鲲鹏炮灰反派逆袭之抱大腿金丹证道快穿:主神独宠的病秧子他是上神安检日记主播太美太撩人,大哥个个碗里钻宠妻狂魔之王爷请适可而止稻玉狯岳你觉得幸福吗?人在美漫,超女说赛亚人很厉害星穹考卷次神1:诡秘之主,新沪怪谈泰国佛牌的秘密女王大人,小天使真是我们女儿截胡纲手后,我当上了火影HP:又一对布莱克和马尔福灵异系统之逆世传奇带上粉毛小狗,从武侠开始无敌!综影视:云端美人夏尔的异世之旅饭店真实见闻录