憨厚的日记本 · 迷你世界黄海客车 - 抖音· 1 年前 · |
瘦瘦的棒棒糖 · 一部非典型体育题材纪录片《棒!少年》缘何成为 ...· 1 年前 · |
聪明的墨镜 · 迪拜的女孩高能片段时间_迪拜的女孩们高能片段 ...· 1 年前 · |
爱运动的毛豆 · MECT治疗的真实感受 - 知乎· 1 年前 · |
稳重的钥匙扣 · 四川天府新区乐高乐园_百度百科· 1 年前 · |
大家好,今天我们不仅仅是要测试 gpt 四的新功能 del 三的纹身图功能,而是要挑战他的极限。 l 三是一个能从文本描述生成图像的魔法工具,但今天我们要问他能否应对最疯狂的挑战。我们先从简单的开始。一个穿着红衣服的女孩在雨中跳舞。可以看到画面还是比较符合描述的。 这次来点复杂的。一只有三只眼睛的猫站在月球上。这次生成的图片也比较符合描述。一个由钢琴剑组成的火龙在星空中,土兵能想象吗?一个由钢琴剑组成的土兵的火龙。 十五只穿着舞鞋的章鱼在冰上跳华尔兹章鱼舞者你见过吗?一座游云朵、 彩虹和巧克力制成的城堡是不是像童话一样?最后,我们为 dl 三准备了一个前所未有的挑战。一个坐在飞碟上,用香蕉当做吉他演奏摇滚乐的外星章鱼。 这是不是超出了你的想象范围?今天我们真的看到了一些令人震惊的作品,虽然 del 三不是万能的,但它的表现确实超乎我们的预期。希望你们喜欢今天的节目。如果你有更疯狂的挑战,不妨留言告诉我们,别忘了点赞和订阅。
今天我们来先了解一下这个 dere e 三,也是前几天就 open ai 发布了一个这个 dere e 三的版本,比相对上一个 dere e 二的版本它提升了很多。 比如说在你提示词上对你提出提示词描述会更精准一些。 d r e 它是基于 oppo air 先前的一个技术开发出来的,那核心原理呢?就是利用大型的升级网络来生成的这样一个啊图像。 我们用户呢,只需要提供一个简短的文字来进行描述,嗯,大家一三就可以生存一个啊,与描述相符高质量的图像。比如例如我们现在来体验一下我们打开这个 gp 四, 如果你用 plus 会有这个功能啊,加微三。现在已经添加到这个我们的 plus 用户的企企业版。比如我们生成一 一个绿色的,我们说绿色的三头龙,加一个绿色的三头龙在火山上面飞翔。 我们可以看一下他给出的这样一个图像,他会把我们描述词随机生成四份不同的描述词, 然后根据这他生成的四分多数词,然后再重新生成图像。这个过程大概是三十到一三十秒到一分钟之间,速度相对来说已经非常快了。 这是他生存的图 像,你可以看一下,只要提供下载搜索,龙就会自动飞翔。 我们根据这样的一个提示词,它就可以啊,给我们生成一个相符的独特图形。你也可能会问,就是 l e 三它的实际用途。其实它作为一个啊有趣的图像绘制, 可以想象一下,就我们在设计师,然后在创作途中,我们只需要提供一个简短的这样一个描述就可以得到啊,设计灵感原型或者作家也可以把它们生成一个 啊,插图啊之类的。而且你不需要依赖传统的衣服创作,可以很快的设置。你想要图像, 我们可以根据这个官方提供的一些描述词来让它为我们生成。尝试一下, 这过程非常快。 其实像所有的 ai 技术,它基本上都差不多,它也非常有局限性。那像我们生存图像并不总是完美的,或者不总是符合用户预期。那随着我们的技术进步,这些问题可能也会得到解决。 这生成图像与我们官方看到的图像基本很相似, 偏动漫风。就这张看起来比较真实一些。 你可以把它放到 majorny 比一下。 majorny 生成图像 n downe n downe 三所代表的图像是不是技术,其实就是为我们结识了一个啊,可能的未来。借我们的文本,图像之间的无缝交互,以及它未来为我们啊提供了很多,是创造更多的创造可能性。嗯,出来了。 舒适的客厅里摆着一张充满红绿灯黄色的香蕉。 选择法那这个提示词像 meter, 理解能力要偏弱一些。 me 中你再理解同样提示词, 理解能力嗯,会比这个 d l e 三确实要差一些。 如果想要更换尺寸的话,可以下啊帮我按一下尺寸。 v b 十六吧。素版的 出来了。 嗯, 那是重新生成的。重新生成 要生成四种不同的风格。 很显然, d 样都比较好看。那么在 mid gentle 当中,我们需要将这段提示词或者加一个方框 a r, 然后图比十六 c b 十六。 看到微我 就是刚刚 a r 十三尺寸,我们需要拿一个指令让调到你想要的尺寸。相对来说, g p 四它会更智能一些。 你想要修改哪里,你只需要告诉他你想修改哪里。 army journey 你想修改这个沙发角落或者是一个花盆,你就要重新啊,修改它的提示词,然后再给它一个新的提示词 啊,这样就可以看出啊。可以看出这个 l e 三的理解能力,对我们提示词 理解能力非常强的。那么我们要一个香蕉型的一个沙发在客厅中,而面桌呢,只给一个香蕉颜色,这个区别就很明显了。 相信用不了多久,这个 oppo air 的 del e 三,它会也许会超越我们这个 meterni。 好,今天视频就到这,大家可以自行去尝试一下,还是非常不错的。
产品君终于中签了 check gpt 的生图能力,试用结果超预期,连 meet journey 都取消订阅了。本期先教大家用 check gpt 做一套表情包,主人公是一只产品汪。输入简单的提示后, gpt 四会根据你的意图创建四个 prompts, 自动完善场景和补充细节,然后由高一、三生成图像。如果对 gpt 四生成的场景不满意,我们还可以指定场景,比如吵架、抱头痛哭等。挑选出喜欢的照片,用 photoshop 或其他工具一键去背景,添加文字。 所有图片编辑完,直接导入聊天软件,私人订制表情包就完成了。目前,叉 g p p plus 用户可以通过填写官方申请表单快速获得上 生图功能。另外也可以通过微软并免费使用高丽三生图能力。本期视频点赞过五百,下期出叉 g p t 制作动漫教程。
哇塞,家人们昨天刚说巴德有了大更新,没想到今天 open ai 就直接整了个超级大动作。交易 three 发布了。第一,他的图片生成质量有了非常大的提升。他可以准确地表示具有特定对象的场景以及他们之间的关系。 比如你可以看到像这张图片,他可以准确的表示这张图片里面含有的街道,人物的场景,背景的月光,还有这个男士的细节。而且他还可以表达他们之间的关系, 人物的手部以及其他的细节都得到了非常大的提升。第二,以前的 ai 绘图需要我们了解一定的提示词基础,而现在,即使你完全不会写提示词也没有关系。他可以用 check ppt 帮你来优化提示词。你可以通过对话来进行反复的修改。 可以看到,你只需要告诉他一个简单的问题,他就能够去生成对应的图片,然后再通过对话去进行进一步的补充。他就可以根据原有的图像基础 上去进行一些细节的添加和修改。你只需要告诉 check pt 你想看到什么,他就能够制定非常详细的提示,并且生成对应的图像。如果你不太喜欢某个特定的图像,那你也可以通过跟 check ppt 的对话,让他去逐步的完成调整。这个功能我真的觉得是新手福音,非常的友好了。 第三呢, l e three 将于十月初面向 chet bt plus 和企业用户提供。那跟二代一样,你是可以直接使用他创造的图像去进行重印,甚至出售他们的。 看到这里,我已经非常迫不及待的想体验一下了。大家觉得这一次的大更新怎么样呢?我是 rick, 有三猫,关注我,学习 ai, 不迷路。
好家伙, ai 绘画的桌子又被掀翻了。乍一看是画质和提示词的提升,而真正的重点简直让人细思极恐。 open ai 刚刚发布的刀一 three 即将再次改变游戏规则。先说画质,看看上一代的刀一 two, 毫不夸张的讲,就这个水平,放在现在那简直就是小菜鸡, 随手用 sd 画张图都比这强。但是这个新出的刀一 sri 让我彻底改变了之前的印象,不仅提高了出图质量,并且结合了 chat gpt 的文本理解能力。 他可以更加理解你的提示词,使用自然语言就可以更加准确的绘制你想要的画面。比如这个香蕉形状的沙发。在相同提示词的情况下, s、 d 叉 l 的结果是这样的。这还没完,他甚至还拥有拆的 gpt 的上下文能力。这意味着你不用每次都去重新定义画面,他能够记住你们的对话。比如这只小刺猬在前面的提示词中给他 起名字叫做 larry, 然后不使用任何跟刺猬有关的提示词,让他画出 larry 的房子。可以看到他是记得 larry 长什么样子,并且还在邮箱上清楚的写上了 larry 的名字。没错,他还能准确的写字。而真正让我感到恐怖 的是人工反馈。对比没专利的四宫格,我们在选择一张图片的时候,提供的信息只有好或者不好。而刀一 three 直接用连续的自然语言对生成的图片进行反馈。这意味着他不仅能得到好和不好的信息,并且能知道哪里好,哪里不好,为什么好。 在得到这样细腻的反馈后,他的迭代速度将会是怎样的?而在你使用自然语言不断调整图片的同时,又在不断加强他对图片的理解和认识,从而强化他的识图能力。大语言模型的多模态功能即将正式拉开序幕。点个关注,快点半步!
家人们谁懂啊!刚充了密军绿的年费, openai 的纹身图工具就出来了。听说不用咒语、大白话就能生图,质量高且不说,还能一键出故事片。哎,无语死啊。来一起看看 deu 三放出的展示片。 不用再去网上抄别人的咒,只需输入描述词,超级无敌向日葵小刺猬图直接就生出来了。选中喜欢的样子,还可以给指令再进行延伸,比如他的更多形态、他的家,还有他的小伙伴。更为方便的是,就连小刺猬的产品图 以及背景故事都能直接生成。看到这里,有人已经想到了,得有三在商业上的用途。能不能成为妹这呢?先关注一波 ai 超会玩,十月上线后第一时间为你测评。
什么? meet jenny 和 sd 危险了? openai? 没错,就是那个著名的 chis gbt 的母公司。抢新谷歌一部,发布最新的无声纹功能大力三,简直是太震撼。 可以与拆的 gp 联动,重新定义 ai 图像生成。这件事,让你用说话的方式就能开始创作。我的妈, m 勾和 sd 这次真的危险了呀! 但是有人肯定又要说了,胡升文这个功能不是早就有了吗? cloud deputy 这你不是都能作图吗?而且都很强悍呀!哈哈,兄弟们啊,但这次你可能错了,因为这次 opnai 是换倒超车,连弯倒超车都不算,你敢信?大语言模型过时了,人工智能正式进入了多模态时代, 阿里三就是 o n i 抢先谷歌的一步,打响了新时代的第一枪。相信做过图升文的朋友们啊,一定都深有体会。就算给你准备了详 记得提示词,然后再把权重啊,参数啊各种扰人的设置移动调调到和模型案例展示的一模一样,又能怎么样呢?能得到完美图像的几率也跟炼单似的得碰对不对? 他为什么会这样呢?其实就是因为以前的人工智能对于文字和图像两者之间的对应关系并不能很好的理解明白不?他会主动忽略那些搞不懂的提示词。而现在就在刚刚 opna 发布的这版大力三,他能够做到言出反 随时的生成,能够完全理解任何你的要求,甚至连任何一个细节都不会被忽略啊。而且通过跟叉的 gpp 的结合,什么咒语啊,魔法呀,全都用不着了,你就正常说话就行,他都能听懂, 你受得了吗?并且都能给你创作出来,而且他还能持续进行连贯的创作。再来看一下官方的演示视频, 你看明白了吗?达利三加 chat g b 四可以按照你的要求创作一幅画,然后协助你生成一 系列连贯的图像加文字内容,就像讲了一个完整的故事一样。而在整个过程里,用户只要对话动动嘴就行了。 oppo ai 在自然语言技术上有先天的优势,而 谷歌在多模肽技术上也有优势。刚刚谷歌才发布了新的 jami 双子星多模肽系统,刚开始给合作小伙伴小规模进行试用,拉开了 新一代人工智能多模态,也就是 ut model 拉着 language model 的序幕。可是才没两天, oppo ai 就把达利三给放出来了。下个月 api plus 和企业用户就可以用起来了。哼! 甚至说 o n i 将会在十一月六号召开的这个发布者大会上发布结合了 g p t 四的多模肽产品 g p t 威震,他很有可能就是传说中的 g p t 五的多模肽联合模。 高比欧文爱和谷歌这两个人工智能领域的重量级人物,已经为了争夺新一代东罗泰人工智能的霸主宝座展开了白热化的竞争。真的是未来以来,我们雷结合了语言,不像音频、 视频、味道、动作等等不同维度的多门害,人工智能是越来越近了,不知道我国的大语言模型还有多长的路要走啊。我是小翔,如果你想了解更多关于国产 ai 的事,关注我。
这是我们 gbt 里边的 dealth three 的纹身图,然后可以看一下过程。我说做一个骑行的三里卡通牛仔,然后他就生成了这几幅图。 呃,每一幅图它都是有这个 prom 提示的,就是右边点开它还可以复制 适量。大家说吧。 呃,紧接着我,我说就是图三,把这个图三改为因为白天嘛,我想改成夜晚。然后他就给我出了这四个图。 我想再增加文字,因为 g b t 的底层代码只有英文,如果你输入中文,它字很多。所以我说嗯。再图一就是这个图一。增加这个 innovin 就是在风中,因为它跑起来比较有那种风的速度感。 呃,但但是呢,它也是 inner bin, 但是 energy 它多一个 i 嘛。然后我就把这个呃点指指出来,说这个单词错了,加我重新制作。 呃,他生成和前面一样吧。结果这个错误也没有改。然后我 我我再说他也还是还没能改正过来。紧接着我,我问他嗯,有那些可用的分辨率,他给了我三个, 这个是宽屏。呃,这个就是正方形嘛,这个就是竖竖版的。然后应该目前只有这三个分辨率。 然后他就暂时生成了,现在他生成为我的图。其实 in the win 这个错误他已经纠正过来了。 你说现在的 ai 绘画能力是不是已经把米专业和 stable diffusion 强大了?已经完爆了吧。
这是一个美的珍妮的教程视频,这个视频会带大家学习如何以图深图,并介绍这种质感图标的制作方法。首先,我们需要找到合适的参考图,可以在各大素材平台上搜索关键词,比如三 d、 毛玻璃、科技感等等。 将参考图保存到本地,我们之后会用到。接下来进入 majorny 的界面,先点击输入框左侧的加号按钮,再点击上传文件,将刚刚保存的参考图上传并发送。发送成功之后,点击任意一张参考图。 我们可以看到在屏幕左下角有一句提示,在浏览器中打开,点击这句话,并在新的页面复制图片的网址。回到输入框中,用英文输入法打出斜杠,并选择 imagine 指令。这里不明白的同学可以去看我的上一个视频,了解一下没整理的最基础操作。下一步在 promp 指 后面把参考图的网址粘贴进去,注意网址后面要输入英文的逗号和空格,方便。之后输入其他关键词。这是我用 major 你生成的图标。我们来解读一下 promp 的写法。首先描述主体,一个表示文件存储的图标。 下面是图标的风格描述。蓝色具有一定毛波力效果,半透明且带有科技感,还要有一些工业感。为了方便抠图,可以将背景设置为白色,同时将光线设置为工作室照明。 最后是建模和渲染相关的指令,比如三 d ccd、 blender 之类的。还可以命令画面具有高保真的细节。 如果不约束,图片比例默认就是一比一的。我们再来整体看一下写 prompt 的思路,告诉 ai 一我们要的主体是什么?二,我们要的设计风格是什么?三、描述主体的细节质感。 四、描述主体的背景和光印。按照这个思路,我们完全还可以轻松的制作出暗色模式的图标,只需要替换一些 promp 即可,比如暗色辉煌配色黑色背景。 发送 pro 之后,我们会得到四张 ai 返回的图片,图片下方的两行指令。不明白的同学请看我上一个视频,里面有详细的描述。所有美追女生成的图片都是可以直接下载保存的。对 ai 绘画感兴趣的小伙伴可以关注我,我会定期分享更多 ai 绘画思路。
任何。我是说任何的想通过 sd 获得高质量图片的人,无论是产品图还是绘画,你都必须经过图深图的这一关。图深图模块才是真正让 sd 从玩具升级到工具的真正关爱。今天我们先来讲一讲 图深图全功能深度解析。看完视频记得三连加关注我准备了图文笔记以及思维导图,方便你的学习。我们进入图深图面板,你会看到五个模块,其中局部重绘、涂鸦重绘、蒙版重绘,都是为了修改局部内容而诞生。主要功能就是替换物品,生成产品图,修复脸部或者是手部等等的 功能。遗憾的是,百分之九十的人都只会使用这三个功能。而图深图跟涂鸦基本上就像一个被遗弃的孩子。这两个倒霉的孩子里面的。很多人认为图深图只是一个电图或者是转换风格的工具,简直就是大错特错,它的功能远远不止这些。我 我可以这么说,任何想通过 ai 绘图获得高质量图片的人,你都绕不开图深图的高清修复以及细节增强的功能。所以我说的是高质量这三个字。高分辨率跟高质量之间是有很大的区别的。 很多分辨率放大工具仅仅是提高了分辨率,并不能真正提高它的质量。众所周知,由于训练模型用的尺寸是一零二四乘一零二四的 sd 一点五甚至是五幺二乘五幺二的图片,那就造成一个非常巨大的麻烦。即使你的显卡非常之牛逼,可以生成高分辨率的图片, 那你也只能生成这样子的图片。什么意思?默认模型是五幺二,是一个人物的范围。当你把它改成一零二四乘一零二四的时候呢,这张图片就会变成两个人。也就是说,分辨率决定了内容的数量,而不是决定图片的质量。质量没有发生任何的改变,同等质量的东西变多了而已。显然,直接 从 sd 纹身图生成出来的图片的质量,用于商业化还远远不够。于是, sd 很早就隐身出来了一个高清放大的功能。 sd 后期处理模块有高清放大的功能。但是用过的人都知道,这东西就跟尿一样。一张低分辨率的烂图扔进去之后呢,就会出来一张高分辨率的烂图。 而直接在纹身图界面的高清分辨率修复质量非常之可观。但是速度慢如老狗,你都一只脚踏进棺材,他可能还卡在那百分之五十上面,看到没有,看到没有,越跑时间还越多。不过吧,这样也有一个好处,就是你的后背都不需要给你烧电脑 显卡,他就会自己带着电脑全家过来找你。所以说,一般的显卡能做个一零二四乘一零二四质量的图就已经不错了,强如四零九零,撑死也就二零四八。这在现实的工作中压根就不够看。举一个极端的例子,一张海报宽五百七十毫米,高八百 四十毫米,那这张海报的高度差不多要一万像素才够看。你一个二零四八打印出来的东西就跟尿一样。为了解决上述的种种问题,开发人员想到了一个非常棒的突破显卡限制的方法。真快。我们假设一张 a 一零二四乘一 零二四的图片,我们想把它放大到四 k, 就是四零九六乘四零九六。正常情况下去生成必然会爆显存。但是我们可以把这张原图先切一切,比如说横七刀竖七刀,切成八八六十四的矩阵,每一个小方块就是一二八乘一二八一块一块重新采样,放大到四倍到五 五幺二乘五幺二六十四块,拼凑起来就是四零九六乘四零九六。如此即使是普通的显卡也能生成四 k 的图片。但是硬生生拼凑会让接缝非常的明显。所以我们的分块与分块之间需要有重叠的部分,重叠的部分会重复采样,如此过渡就会更加自然。重叠的部分越多,时间就越长,默认一 般都是一半的重叠图。深图里面自带的脚本 sd upscare 就是这么个东西。他比后期处理放大要好很多。但是在重绘幅度比较低的时候,比如说零点三到零点四的时候,他的放大会非常忠于原图。但是大家也看到了,他几乎起不到修复或者是增强细节的作用。 且但凡你稍微提高一点点重绘幅度,比如说零点五五,他就会开始胡编乱造,而且这个行为还不可控,这可怎么办呢?没有关系,跳的 diffusion 会出手。直译过来,其实跳的 diffusion 就是分快扩散嘛。没错,他也是基于上述的逻辑进行采样生成。 相对于 sd upscale 来说,他更加的可控。第一,重回幅度的时候,他增强画质,提高细节,甚至可以消除不良的阴影。重回幅度比较大的时候,你也可以控制他,不像 upscale 那样子胡乱的去生成,你甚至可以控制画面的整洁程度。具体怎么操作?首先第一步我们将一张生成的比较 满意的图片发送到图身图这里来。点击启用。 tailed diffusion 和 tailed vie。 分块高度和分块宽度没有具体的要求,一般都是图片尺寸的八分之一。原图一零二四就填幺二八 一六,八的话就直接填九十六,以此类推。重叠的尺寸按分块尺寸的一半。单批数量是指同一时间有多少个方块在同时生成。那么如果你是四零九零的话可以直接填个八。如果只是十六 gb 的普通显卡可以填个四,再差一点的可以填个一或者二。单批数量越高,你的效率就会越高,同时对显卡的要求也越高。 尺寸的填写方式我的建议是勾选保持输入图片的尺寸,然后选择放大算法和放大倍数。这个输入图片尺寸就是说你导入图深图的这张图的尺寸。一旦你勾选的保持输入图片尺寸,你在参数区填写的尺寸就会被直接覆盖掉。调好的 v 基本上保持默认参数就行了。如果发 显存不足的情况,可以降低编码器的分块大小。我尝试的结果是十六 gb 可以开到一零二四到一五三六。那么如果你生成的图片有色差的话,你可以勾选这个颜色修复。那一般呢?就不会发生。采样器跟采样步数,尽量不要修改,除非你想切换其他的风格。下面会讲随机种子,可变可不变, 影响并不会太大。最重要的参数其实是 c、 f、 g 重绘幅度以及正向提示词。在高清放大的时候, c f g 可以调动令人惊讶的细节。如果你不喜欢图片拥有过多的细节, c f g 可以保持七不变。如果你希望获得更多的细节, c f g 可以调大一点,调到十。 而且从会幅度越大,调整的细节也就会越多。但是我们从这个宫格就可以看得出来,比较大的 cf 居家比较大的从会幅度就会出现一个非常之严重的问题,就是出现很多妖魔鬼怪,让整个画面变得 非常的脏,非常的凌乱。为了能尽量保持原图的结构、色彩、线条,重绘幅度呢,一般会设置在一个比较小的值零点四,就是一个比较普遍的玉值,超过这个数值很大可能就会出现很多你不想要的东西。 所以在没有其他任何措施的情况下,重绘幅度一般就设置零点二到零点三五。而如果我非常追求丰富的细节,人物的图片甚至会设置到零点六、五到零点七。一方面,因为重绘幅度太低,几乎起不到增强画质的作用,特别是简单的人物,细节就变 的尤为重要。另外一方面,我希望 sd 能够有点自由发挥的空间,我甚至希望他能够稍微改变一下原图的色彩,或者是其他不合理的地方。但是我们上面说了,这样子会让整个画面变得非常的脏,非常的混乱,甚至出现了一大堆的错误。为了解决这个混乱的问题,我们需要完成两个动作。第一步提示时删除比较 去向的对象,保留大师杰作、高品质等质量提示时,第二步开始 tell the diffusion, 打开下面的噪声反转。反转步数二十五。如此一张拥有细节且画面干净整洁的高质量图片就生成了。但这依然还不够 好。我们回到噪声反转,我们可以看到噪声反转里面有三个非常关键的参数反转步数、修复程度、重拨噪声强度。这三个参数几乎都是用来控制 简洁的画面和丰富的细节之间的平衡。翻转步数越低,画面就越干净整洁。越大就有越多的细节,同时也会造成越凌乱。修复程度默认是以整体来看,好像修复越高是越干净的。其实也不能说越高画面就越干净,大概是越高越倾向于原图的内容。 他好像在删除一些从会幅度过高而生产的原图没有的东西。如果这个时候你还认为你的画面比较凌乱,可以稍微加 降低一下。重铺照升强度。以下是重铺照升强度的对比。我们可以看到重铺照升为零的时候,他的画面是最干净的。重铺照升为一点零的时候,他的画面是比较没有那么整洁,但是细节是比较丰富一点的。而且这个柱子上好像还出现了一些错误。 总之呢,我们就在各个平衡参数之间找到一个最合适又干净又整洁又有细节的结果。但你也不能设置的太小,太小的话会导致画面过于简单,细节会被完全抹足掉。除非你把你的 cfg 跟你的重绘幅度都给拉高起来。当我 cfg 设置时是 重绘幅度高达零点七五,并将重铺造成色尾零的时候,却可以得到一张画面简洁、细节丰富有力度的图片。当然,这个手刀我之前没有注意到啊,这个可能得去局部重绘修复一下。有些人可能会觉得这一张图过于简约了,但是确实这是我觉得我做这么 测试里面我觉得最喜欢的一个参数,我更喜欢干净的东西。另外就是我这十几轮测试下来的不同重铺噪声强度下,不同 cf 居家不同重绘幅度的结果都放在了笔记里面。大家呢可以细细的去对比一下,感受一下不同的参数带来的不同的效果。那么此外, tail 的 diffusion 还可以跟 controlled 中的 tail 模型共同使。 t 二模型的强大之处在于它能识别每一个分块中的内容,并与提示词产生关联。也就是说,你不仅能产生强大的细节,在 t 二模型的加持下,即使你用零点七五的重绘幅度以及十四的 cfg, 他也不会出现这种妖魔鬼怪的图片。但 问题是,虽然没有妖魔鬼怪了,但是 tell 搞得整个画面乱的跟尿一样。解决办法就是我们打开 tell 的 tution, 启用噪声反转,反转步数二十五重复噪声强度零。如此,由 tell 模型跟 tell the diffusion 共同作用下的高清放大图就生成了。它比 tell the diffusion 单独作用下多了一份细节,少了一份干净。这里面当中,我认为 c、 f、 g 七从 会幅度零点七五重铺照升强度为零的这张图是最好的。我们可以通过调节修复程度、反转步数、重铺照升强度这三个参数,找到一个整洁和细节之间的平衡点,做到最喜欢的效果。 因为大家也发现了挂在 t r 模型之后会发生色彩的问题,这个问题 t r 的 diffusion 的作者也无能为力,这是 t r 模型的特性。以上就是图深图高清质量放大的内容。总结一下就是第一, 脚本当中的 sd upscare 可以比较容易在较低的重绘幅度大概是零点二五到零点三五之间,且较低的 cfg 时,可以比较轻松的得到一张比较不错的高清图片。你只需要建立一个 cfg 和重绘幅度的矩阵,就可以看的轻轻 清楚楚。第二, t 二的 diffusion 可以在高 c、 f、 g 跟高重汇幅度,比如说 c、 f、 g 等于十四重汇幅度零点七五的时候,挂载一个反转噪声,并且重铺噪声强度为零, 就可以得到一张非常干净整洁而且不缺细节的精美图片。第三,在第二条的基础上挂载一个贴耳模型,你会得到非常丰富的细节,但是可能会造成图面不够干净,而且由于贴耳模型的特性,色彩会发生一点变化。第四,后期处理的高清放大很烂。第 纹身图的高清修复效果非常好,但无法突破显存设置,大部分人都用不了。接下来这一部分就是转换风格的内容。图身图里面除了高质量放大之外,一个比较经常常用的就是 转换风格。转换风格的方式有三种,第一种就是通过风格选择器选择风格,第二种是切换大模型或者是罗网模型改变风格。第三种就是用 ctrl 念参考图片风格。 第三种我们留到 ctrl 那专题再讲。今天主要讲前面两种风格选择器。插件的地址我会放在简介。我们打开 style 插件选择漫画风格。转换风格的重点参数就一个重绘幅度零点五到零点七。对于不同的模型可以填不同的数值,但零点七几乎是一个普遍 的玉值,超过零点七基本上可以说跟原图已经非常的不像了。重回幅度零点五的时候,我们可以看到尚可保留比较多原图的东西,但看起来还是不太像漫画。 重绘幅度零点六我觉得这是刚刚好,既保留了原图非常多的东西,漫画的效果也出来了。重绘幅度零点七已经完全偏向于漫画,但光线表情还是保留了原图。我们可以尝试一下切换其他风格, 或者是更换一个模型。你会发现当你更换模型的时候,有可能你的床会幅度到了一定的程度,颜色可能会发生错误。这个应该怎么 图?深图的一个设置是深层图片之后是否矫正颜色,让图片的色彩跟原图保持一致。这里能不开尽量不开,但是你深层的图片颜色有问题的时候,你可以勾选这个地方,重启之后再去生成。如此你就会得到一个匹配原图色彩的结果。图深图的最后一个功能是 ps 贝塔中的扩充画幅的功能。 我这边是一张七六八乘七六八画幅,我想扩充到一零二四乘一五三六,我该怎么做?首先第一步我们先来看一看图身图页面的这四个主要的缩放模式。第一个仅调整大小,缩放比例,两边会不同,某一边会被拉成基。 第二个裁剪后缩放,原图会被裁剪成跟目标尺寸相同的比例,然后再缩放至目标的大小。第三个缩放后填充空白,等比例缩放到目标图片的尺寸之后,再把空白的地方填充成目标尺寸。第四个基本上跟 第一个没什么区别,只不过第四个直接是在浅空间放大。扩展化服用的就是第三个缩放模式。缩放后填充空白,充会幅度基本上要大于零点六以上,否则就会变成简单的扩充两端的像素。 不过在图深图里面的话,重绘幅度达到一定的程度,主体也会发生重绘。如果你不希望原图有发生任何一点点的变化,其实局部重绘会是更好的选择。我们去到局部重绘, 中间涂上蒙版,两端留空,重绘幅度零点五、蒙版模式选择重绘非蒙版区域在局部重绘里面,被涂抹的部分就是蒙版区域,所以我们这里要选择重绘非蒙版区域, 如此原图才不会被修改。内容处理选择填充。因为我们都是扩展画幅,本质上是无中生有。如果仅仅是修复的话,应该选择原图。重绘区域选择全图。蒙版的面积比较大了,当你需要 重绘的面积比较大的时候,你应该选择重绘全图,不用担心非蒙版区域被修改。不会的,这个选项只是起到了协调填充的区域和原图的作用,而且基本上只有在做修复的时候才会用紧蒙版模式。如 如此参数设置大功告成,我们就可以顺利的扩展我们的画幅了,可以看到人物没有发生任何的改变,而且填充的区域也非常的自然。 涂鸦的功能主要是通过简单的色块和几何形状构成图片的基本结构和配色,再配合提示词绘制精美的图片。其最大的特点就是可以很大程度的控制颜色还有结构。我这里画了一些简单的色块和形状,丢进去涂鸦里面,我们就可以得到一张配色相近但是已经画好的图。 重绘幅度低于零点五的时候,成像还比较的差。重绘幅度零点六的时候是最接近理想的。在继续往上就开始不按涂鸦的颜 进行控制了。如果你非要他的颜色一毛一样,你可以去设置那里打开颜色校正,但你很大概率会翻车。当然面对不同的图片会有不同的参数,这里只是提供一个参考。这是我自己做出来的实验,具体情况还是要具体分析。另外,图 乌鸦重绘的功能主要就是用来修改一下颜色或者是花纹。比如说我想把这件衣服变成黄色,那么我们就可以在这件衣服上面涂上黄色的 涂鸦。通常情况下,重绘幅度同样是零点六的时候,会得到一个比较好的结果。最后的这个部分是上传蒙版精准重绘。上传蒙版重绘经常跟 segment anything 配合使用。我们去到上传蒙版重绘下,拉到 sam 上传一张我们想要修改的原图。这里我们想换掉这个衣服。 我们可以开启关丁 deno, 选择 swim b 这个模型,写下衣服 close, 点击预览就可以看到衣服被识别出来了。我们 可以看到两个方框里面一这个方框是比较准确的,所以我们选择一这个方框,然后点击这个预览分离结果。我们可以看到这三个预览的分离结果其实都差不多,我们选择二勾选一下,复制到 ctrl net, 再去展开。蒙版设置扩展像素呢,一般是取十到三十。这里我选择了十。点击更新蒙版 发送到上传蒙版局部重绘面板打开 ctrl 内的启用局部重绘,选择郭波哈姆尼尔域处理器,其他的不需要修改。拉到上面,这里没有任何的东西不用管。蒙版模式选择重绘。蒙版内容处理选择填充区域,选择全图重绘幅度零点七五。直接点击生成就可以修改衣服。 以上就是本期视频的所有内容,视频中所有的案例和笔记都已经整理好了,三连加关注找我拿吧。视频当中用到的工具全都放在简介下一期视频 ctrl net 全解期间。
megeny 权重之很重要,这一期我们详细聊聊。很多人都知道用 megene 图声图的功能,这里就不再普及理论知识。其实 megene 图声图有两种形式,第一种是针对单独一张原始图片的情况。 我们的操作流程是先上传一张图片,然后直接在 discolo 对话框的 m i 真 pr 拼命令里直接把刚刚上传的图片拖拽进来。当然也有人会教你复制链接进去也是可以的。接下来空格输入提示词就可以了。第二种是针对多张图进行融合生成新图的情况。 这里我们需要在 discolor 对话框输入 bill ang 的指令,即可上传指定图片进行融合。注意,这里是可以直接上传最多五张参考图的。这里我们回到今天的主题,就是在第一种情况下,我们想要让 megne 产出的图更 更加贴合你自己上传的参考图应该怎么处理?在这里我们除了对参考图的准确描述之外,还有一个很重要功能需要了解,就是图片权重参数,也就是 iw 值。所谓的 iw 值,通俗理解就是 mijany 输出图。参考原图的比重 值越大,生成图越像参考图,值越小,生成图越不像参考图。那 i w 值的区间是多少?有人说是零到一百,有人说是一到十,还有人说是零到五。这里我们本着客观的角度就不要听别人说了,我们直接去 mijani 的官网看看。 从官网对权重参数的诠释,我们就可以很清楚的知道 iw 的区间值是零点五到二之间,而当你没有单独设置时,系统会自动默认 iw 的值为一。我们还可以在下面的对比图 片中非常清楚地明白每个 iw 值导致 midi 输出时与原图的区别与变化。老规矩,在视频的最后,我会放上官网图片的中文版给大家。最后需要讲一点的是,在实践中,这个 iw 的数值即便超过了这个区间 米之尼,依然能够正常运行。就像我现在执行的这个 iw 值六十六,系统依然没有报错。但是参数只要超过了二,系统都只会按 iw 值为二来进行运算, 所以输入更大的数值并没太多,有实际的用途。好了,这期关于图片权重 iw 值的问题就到这里,咱们下期见。
你这用米居然,你以图生图的还原度也太低了吧,我们做出来的都是这样的。想用米居然你做出这种高还原度但又更有氛围感的图片,其实很简单。首先点击加号,上传你的美照, 点开照片,选择在浏览器中打开,右键复制图片地址,回到聊天框,点击绘图指令, 把刚刚复制的照片链接粘贴进去。敲一个空格,在链接后输入一个你想要的风格。我这里用的是皮克斯风格,不知道用什么风格的。去主页看这条视频, 直接生成,会发现和原图有较大差异。那么第二种方法,我们重复上述操作,在指令结尾加上 iw 二。这个指令是指相似度数值在零点五到二之间,数值越大 相似度越高。如果这样的图还是不满意,那么大招来喽。先输入反斜杠,找到 describe, 把照片加进去。这个指令是以图升文,系统会根据上传的图片自动生成四段不同的图片关键词。 我们再次输入绘图指令,把图片链接粘贴进去,复制一段关键词,放在后面, 再加上风格和 iwr 的参数,这一次的图还原度就很高了, 光影和色彩也具氛围感,还可以不断更改关键词进行修饰哦。更多 ai 工具技巧,点击下方 ai 行业大佬手把手代学 ai 工具, ai 交流社群,免费分享资料插件联动办公场景,帮你效率翻倍,下单联系老师上课哦!
批量图声图脚本功能更新提示词相关功能,增加很多实用的功能。首先是增加了默认正面提示词类别,内置了二十种类别,可以根据你的需要选择你喜欢的类别。当然,这些类别大部分都是需要 lora 支持的。 当你选择了类别,做出的图片不是你想要的样式的时候,请查看控制台信息,找到缺少的 lora 文件,然后到 c 站下载对应的 lora。 有时候 c 站会修改 lora 的下载文件名,请保证下载后自行更改 lora 文件名。 当然,你不满足于一种类型,下面也提供了组合剂允许你组合类别。例如二加三加四。将会使用通用修手、美女专属和五光十色的提示词组合。具体的组合后的效果需要你们自行测试。请注意,你如果选择了修手的提示词, 你需要下载 likers 扩展,并在 c 站上搜索并下载 any better hands local, 然后按照提示放在对应的文件夹里面。你想自己输入正面和负面提示词,可以勾选下面的单选框,并在合适的位置输入相应的提示词。 支持对 mp 四或者这幅文件分片使用模型。你勾选后,在模型集合中输入你想使用的模型名称。集合需要你自己电脑或者云 gpu 平台上有的模型。 如果没有找到对应名字的模型,将使用能找到的模型代替。输入模型名称集合后, m p 四文件或者这幅文件将根据模型名称个数分段为相应的片段,每个片段使用指定的模型进行绘制。 现在支持多文件处理了。在功能三里面,你可以输入一个包含多个 m p 四或者这幅文件的文件夹 脚本,将查找内部的 m p 四和这幅文件进行处理。每一个文件处理完成后,都会将图片保存在以文件名命名的文件夹里面。 功能四里面用于用户测试效果,当你不确定生成的效果的时候,可以将功能四的数值改为一或者二来查看生成文件的效果。当你在功能三里面输入的是一个文件夹的时候, 测试结果会为文件家中每一个 m p 四和这幅文件生成相应帧数的图片文件。当你测试完成后,请将功能四的数值改成一个很大的数,保证大于最大的文件的帧数的值,这样能确保所有的文件都能完成处理。 同时建议测试完成后将测试的图片删除,以免你混淆生成的图片和测试的图片。好了,今天就到这里,晚一些会上传一个使用多模型多提示词组合处理的视频,大家喜欢可以点个关注,谢谢大家。
这个消息要是在三天前推给我,完全可以省下来三百多美金。就在 major journey 全网收割付费用户的时候, stable defusion 出了一个对标 major journey 的完全免费的 stable foundation, 同样在 disco 的上线可以使用同样的提示词。 stable foundation 使用的是 stable diffusion 最新的 x l 一点零版本,接近于 majoring 的五点一版本的出图效果,关键是免费,免本地部署配置环境。 首先下载 discod, 注册后,在浏览器中打开这个网址,将 stable foundation 加入频道, 在这边十个机器人中任选一个。输入斜杠,选择 dream, 可以添加提示词。按下 type 键,可以选择 style 中的不同的出图风格,在 aspect 中选择出图尺寸。然后就打开了你的新世界。 关注我,一起做领先百分之九十五的人。
在今天的视频中,我将向您展示 stable diffusion 图声图工具的所有内容,包括图声图涂鸦,局部重绘、涂鸦,重绘,甚至上传重绘蒙版。这个视频包含了所有内容,让我们开始吧。图声图标签是 stable diffusion 中的一个必备工具, 他允许您从现有图片创建新图片或新元素。如果您有一个图像,您可以使用该图像将组成和颜色的元素置入全新的图像。 所以我在这里有一个我之前生成的图像,他是一个城市街道上的女孩的笑像。我使用 sdxl 模型生成这个图像,但您可以使用任何你想要的图像现有的照片绘画的。首先,我们将其放入图生图框中。您还可以 从纹身图像标签中发送图像。只需点击您的生成下方的发送到图声图即可。就像我们为纹身图像做的那样,我们可以添加正面和负面提示。如果您从纹声图像发送了图像,原始提示将出现。就像您在这里看到的那样。 在图像框下方,您会看到我们可以玩的所有设置。现在这个标签中的很多设置都与纹身图像一样,所以我只会在这里说。图生图的设置。 首先是缩放模式。如果您的新图像大小或纵横比与原始图像不同,可以要这个按钮。例如,如果您的原始图像是横向的,而您希望新图像是纵向的。默认值只是调整大小。这将拉伸或缩小您的原始图像以适应 您创建的新图像。裁剪和调整大小将保持您原始图像的纵横比,并将其裁剪以适应新的画布大小。调整大小并填充。将原始图像放入画布中,并用输入图像的颜色填充空白。 只调整大小的潜在增强,就像只调整大小一样,但也会在必要时放大图像。请注意,这个设置有点难以掌握,而且有更简单的方法来放大您的图像。 在调整大小模式下方,您会发现您已经熟悉的设置包括采样方法,采样步骤,大小和 p 设置以及 cfg 比例。 这里最重要的设置是重绘程度。 stable diffusion。 通过基于您的提示,将随机噪声转化为图像来制作图像。此设置将控制添加到 图片中的额外噪声的数量,并将决定新图片与原图片的不同程度。较低的设置不会改变图像太多,而较高的设置会产生更大的变化。我喜欢使用零点七作为一个好的起点。 一旦您发送了一个图像,您可以开始调整一些设置来精炼您的图片。我们从文生图像发送了这个图像,所以我们有所有的设置和原始提示。 现在,我们可以开始调整我们的提示,但请记住,整个提示加上图像将用于创建一个新图像。所以,如果您没有使用原始图像的相同模型,种子和采样器,您可能会得到一些奇怪的结果。 所以我们只是使用一些简单的指令来看看他会如何影响图像。所以 让我们去掉提示。放入粉红色和蓝色的头发。保持相同的采样方法和步骤。我们将面部修复并保持默认值。指示调整大小。保持我们的尺寸不变。我们将重绘程度设置为零点七,所以我们应该看到输出中的一些变化。 零点七有很大的影响,所以如果我们想要更微妙的效果,让我们尝试将重绘程度强度降低到零点五。 这对图像有更微妙的影响。所以您可以继续在这里添加更多的细节并重新处理,直到您得到您想要的图像。我们可以看到提示对整个图像产生的影响。 头发和眼睛已经改变,但脸和衣服也已经改变。假设我们只想改变图像的某一部分并保持 其余部分不变,那么局部重绘就派上用场了。局部重绘是一个强大的工具,允许我们涂鸦重绘我们想要更改的图像的特定部分。首先,您可以点击局部重绘标签,或者只点击图像下方的局部重绘,将图像和所有设置复制过来。 所以现在我们可以涂鸦重绘我们想要更改的图像的特定部分。在这种情况下,头发我们可以使用框的右上角的设置来更改画笔大小,或者如果我们出错了,可以清除我们的选择。 我们只是涂鸦重绘头发。然后我们可以检查我们的设置。我们已经看到了其中的一些,所以我们将保持调整。大小。模式为默认遮罩。模糊是您涂鸦重绘的遮 照周围发生的模糊量较低的数字会给您更硬的边缘,而将其调高会影响您的遮罩。受到提示影响的像素数默认值为四,通常就可以了。遮罩模式决定了图像中实际更改的内容。 局部重绘遮罩将更改您涂鸦重绘的部分,而局部重绘非遮罩将更改除您涂鸦重绘的部分之外的所有部分。 如果您想一次更改背景或图像的大部分,接下来您可以选择遮照内容设置。这些设置告诉 stable diffusion 他应该使用什么方法作为生成新图像部分的基础。 填充选项将去遮罩区域模糊它,然后基于它生成。原始设置将使用原始图像未经修改作为其基础生成新图像。 潜在噪声将用基于种子号的新随机噪声填充遮罩区域。这可以用于您想要与原始图像完全不同的结果。潜在无效将用从周围像素的颜色混合填充涂鸦重绘区域,并基于该生成。 这些设置会对输出产生巨大的影响,但如果您进行小的调整原始设置,通常效果就很好。局部重绘区域设置很容易与遮罩模式混淆,但他们是不同的。 选择。整个图片告诉 stable diffusion 使用整个图片作为局部重绘生成的参考,而只有遮罩只处理遮罩区域,而不从图像的其余部分中提取。通常,如果您希望涂鸦重绘的区域与其融为一体,整个图像是最好的设置。但如果 您选择了只有遮罩,您可以更改它旁边的填充大小。这将告诉 stable diffusion 应该考虑多少相邻像素作为新生成的灵感。当然,在下面,我们有 c, f, g 比例和重绘程度。让我们把这个放在五点五和零点六,看看会发生什么。 假设我们想给我们的模特一个围巾。我们可以像之前那样将这个图像发送到局部重绘涂鸦。我们可以涂鸦重绘图像,但现在我们有选择颜色的选项,所以让我们选择红色并涂鸦重绘我们想要添加围巾的区域。 在提示中,我们只需输入红色羊毛围巾。对于这个,您通常需要提高重绘程度,所以让我们到达零点八。我们可以保持 所有其他设置与之前相同。让我们点击生成。是的,对于第一次尝试,这看起来相当不错。您可以继续尝试,直到真正得到您想要的结果。 最后的局部重会工具是局部重会上传。现在我不打算详细介绍,因为这是一个高级话题。但基本上, 您可以在另一个程序中创建一个遮罩,如 photoshop。 使用黑色表示您想要保留的部分,白色表示您想要更改的部分。这实际上是一个非常强大的工具。如 最后,这带我们到涂鸦标签。如果您正在努力使用图声图或其他工具将您脑海中的图像放到屏幕上,您可以在这里发挥您的创意才能并涂鸦重绘它。简单地在提 宫的框中放入一个白色或黑色的遮罩,并使用画笔来勾画出您的想法。使用颜色来突出您想要显示的细节,并与您的提示配对来得到更好的效果。 图生图能够做更多的事情,而在我的下一个视频中,我将向您展示更多的方法。
首先打开软件,点击一键。启动时间比较长,我们需要等待一段时间。首先把我们准备好的手绘或者线稿加载到 controlled 里,然后点击启用完美像素显示允许预览三个按钮。在预处理器里选择 misk。 在模型这个按钮里选择 control 这个模式,点击预览。在控制类型里,我们选择更倾向于让 control 内自由发挥。在预制方面尽量控制在零点一左右,这样可以更好地让 control 内控制我们的线稿图。大模型。我们可以选择 access 这个大模型。 然后我们在这个文生图里边输入关键字提示词。这里我们尽量打上一些高质量的图片,比如八 k 之类的。图面比例可以设置为高度五百一十二,宽度七百六十八这个比例尺寸。 点击生成。现在生成的效果图基本是可以和线稿图吻合的,而且可以精准的控制到他现在的图。前期和甲方讨论啊,或者作为意向方案都是可以的。学会了,别忘记点个小爱心再走哦!每日更新学习教程。
今天给大家分享一下如何用 made journey 去以图生图,我们一步一步手把手教你去做,建议点赞收藏。这是我用之前 ip 生成的图,有的生成还不错,描述很关键。下面我们打开 made journey, 把你选好的图拖入 made journey 描述的编辑框,点回车斜杠 settings, 点回车 v 五、点击选择高清图。下一步,在对话框中输入 imagine, 找到 imagine point, 再把刚才的图片链接放到后面空格,再输入几个描述词,我们把刚才准备的关键词复制进去,比如像最佳制的 oc 渲染器,三比四是尺寸,也可以是十六比九,点击回车就可以了。 下面 u 开头的是放大图,像 v 开头的是将其中的一张图再去重新生成。下面的这个小画笔是丰富更多相似细节,找到满意的保存即可。