Shader "Study/10_Distortion" {Properties{_NoiseTex("絮乱图", 2D) = "white" {} // 絮乱图_AreaTex("区域图(Alpha):白色为显示区域,透明为不显示区域", 2D) = "white" {} // 区域图_MoveSpeed("絮乱图移动速度", range(0,1.5)) = 1 // 絮乱图移动速度_MoveForce("絮乱图叠加后移动强度", range(0,0.1)) = 0.1 // 絮乱图叠加强度,多张运动纹理叠加后再相乘的系数}Category{// 【渲染队列】在透明物体前,类型为【透明】Tags{ "Queue" = "Transparent+1" "RenderType" = "Transparent" }// 最终透明混合 = 贴图RGB*贴图A + 背景RGB*(1-贴图A)// 透明混合【源的A值】【1-SrcAlpha】Blend SrcAlpha OneMinusSrcAlpha // 该写法为最常用最真实的透明混合显示,半透明图的正常显示// GEuqal 点的alpha值大于等于0.01时渲染AlphaTest Greater .01 // 在PS区域图时,不显示的地方透明度为0即可。// 关闭剔除,关闭灯光,不记录深度Cull Off Lighting Off ZWrite OffSubShader{GrabPass{Name "BASE"//在后续的通道中可以使用给定的名字来引用这个纹理。当你在1个场景中有多个对象使用grab pass 时候,这样做会提高效率。Tags{ "LightMode" = "Always" }}Pass{Name "BASE"Tags{ "LightMode" = "Always" }CGPROGRAM
#pragma vertex vert
#pragma fragment frag
#pragma fragmentoption ARB_precision_hint_fastest
#include "UnityCG.cginc"struct appdata_t {float4 vertex : POSITION; // 输入的模型坐标顶点信息float2 texcoord: TEXCOORD0; // 输入的模型纹理坐标集};struct v2f {float4 vertex : POSITION; // 输出的顶点信息float4 uvgrab : TEXCOORD0; // 输出的纹理做标集0float2 uvmain : TEXCOORD1; // 输出的纹理坐标集1};float _MoveSpeed; // 声明絮乱图移动速度float _MoveForce; // 声明运动强度float4 _NoiseTex_ST; // 絮乱图采样float4 _AreaTex_ST; // 区域图采样sampler2D _NoiseTex; // 絮乱图样本对象sampler2D _AreaTex; // 区域图样本对象sampler2D _GrabTexture; // 全屏幕纹理的样本对象,由GrabPass赋值v2f vert(appdata_t v){v2f o;// 从模型坐标-世界坐标-视坐标-(视觉平截体乘以投影矩阵并进行透视除法)-剪裁坐标o.vertex = mul(UNITY_MATRIX_MVP, v.vertex);// 将裁剪坐标中的【顶点信息】进行换算给uvgrab赋值
#if UNITY_UV_STARTS_AT_TOP // Direct3D类似平台scale为-1;OpenGL类似平台为1。float scale = -1.0;
#elsefloat scale = 1.0;
#endifo.uvgrab.xy = (float2(o.vertex.x, o.vertex.y * scale) + o.vertex.w) * 0.5;o.uvgrab.zw = o.vertex.zw;// 区域图纹理:获取输入的纹理坐标集,并且使用_MainTex_ST采样图,支持在视检器调节缩放和偏移值o.uvmain = TRANSFORM_TEX(v.texcoord, _AreaTex);//o.uvgrab = TRANSFORM_TEX(v.texcoord, _AreaTex);return o;}half4 frag(v2f i) : COLOR{// 控制【UV的运动】,这样在进行采样时,offsetColor1拿到的颜色也是运动的。half4 offsetColor1 = tex2D(_NoiseTex, i.uvmain + _Time.xz * _MoveSpeed);// 将xy与xz交叉位移half4 offsetColor2 = tex2D(_NoiseTex, i.uvmain - _Time.yx * _MoveSpeed);// 将xy与yx交叉位移// 将【正在移动的絮乱图纹理信息】的rg用于给uvgrab累加,加2个col就会出现2个絮乱图纹理i.uvgrab.x += ((offsetColor1.r + offsetColor2.r) - 1) * _MoveForce; // 叠加强度i.uvgrab.y += ((offsetColor1.g + offsetColor2.g) - 1) * _MoveForce;// 本来只会显示物体背后的屏幕纹理(视觉上该物体透明了)// 但是上面给x,y叠加了运动的rg值,所以就形成透明絮乱图运动的效果half4 noiseCol = tex2Dproj(_GrabTexture, UNITY_PROJ_COORD(i.uvgrab));// 屏幕纹理不需要透明,所以设置为1。noiseCol.a = 1.0f;// 对区域图进行采样。half4 areaCol = tex2D(_AreaTex, i.uvmain);// 纹理相乘:区域纹理RBG都为1,区域纹理A为O的像素将不会显示// 即可达到絮乱图在区域图中才显示的效果。return noiseCol * areaCol;}ENDCG}//end pass }//end subshader// 用于老式显卡SubShader{Blend DstColor ZeroPass{Name "BASE"SetTexture[_MainTex]{ combine texture }}}}
}
原理大概如下:
1:通过grabpass 获取全屏得到图像
2:通过维护一个grabuv(包括通过时间位移该uv)从获取的截屏图像中取出相应纹理信息
3:通过正常的uv取出纹理信息,并与从截屏图像中取出的纹理信息进行混合