Initial commit
[hashcat.git] / nv / m05200.cu
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _SHA256_
7
8 #include "include/constants.h"
9 #include "include/kernel_vendor.h"
10
11 #ifdef  VLIW1
12 #define VECT_SIZE1
13 #endif
14
15 #ifdef  VLIW2
16 #define VECT_SIZE1
17 #endif
18
19 #define DGST_R0 0
20 #define DGST_R1 1
21 #define DGST_R2 2
22 #define DGST_R3 3
23
24 #include "include/kernel_functions.c"
25 #include "types_nv.c"
26 #include "common_nv.c"
27
28 #ifdef  VECT_SIZE1
29 #define VECT_COMPARE_M "check_multi_vect1_comp4.c"
30 #endif
31
32 #ifdef  VECT_SIZE2
33 #define VECT_COMPARE_M "check_multi_vect2_comp4.c"
34 #endif
35
36 #ifdef  VECT_SIZE4
37 #define VECT_COMPARE_M "check_multi_vect4_comp4.c"
38 #endif
39
40 __device__ static void sha256_64 (const u32x w0[4], const u32x w1[4], const u32x w2[4], const u32x w3[4], u32x digest[8])
41 {
42   u32x w0_t = w0[0];
43   u32x w1_t = w0[1];
44   u32x w2_t = w0[2];
45   u32x w3_t = w0[3];
46   u32x w4_t = w1[0];
47   u32x w5_t = w1[1];
48   u32x w6_t = w1[2];
49   u32x w7_t = w1[3];
50   u32x w8_t = w2[0];
51   u32x w9_t = w2[1];
52   u32x wa_t = w2[2];
53   u32x wb_t = w2[3];
54   u32x wc_t = w3[0];
55   u32x wd_t = w3[1];
56   u32x we_t = w3[2];
57   u32x wf_t = w3[3];
58
59   u32x a = digest[0];
60   u32x b = digest[1];
61   u32x c = digest[2];
62   u32x d = digest[3];
63   u32x e = digest[4];
64   u32x f = digest[5];
65   u32x g = digest[6];
66   u32x h = digest[7];
67
68   SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C00);
69   SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C01);
70   SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C02);
71   SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C03);
72   SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C04);
73   SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C05);
74   SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C06);
75   SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C07);
76   SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C08);
77   SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C09);
78   SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C0a);
79   SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C0b);
80   SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C0c);
81   SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C0d);
82   SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C0e);
83   SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C0f);
84   w0_t = SHA256_S1(we_t) + w9_t + SHA256_S0(w1_t) + w0_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C10);
85   w1_t = SHA256_S1(wf_t) + wa_t + SHA256_S0(w2_t) + w1_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C11);
86   w2_t = SHA256_S1(w0_t) + wb_t + SHA256_S0(w3_t) + w2_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C12);
87   w3_t = SHA256_S1(w1_t) + wc_t + SHA256_S0(w4_t) + w3_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C13);
88   w4_t = SHA256_S1(w2_t) + wd_t + SHA256_S0(w5_t) + w4_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C14);
89   w5_t = SHA256_S1(w3_t) + we_t + SHA256_S0(w6_t) + w5_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C15);
90   w6_t = SHA256_S1(w4_t) + wf_t + SHA256_S0(w7_t) + w6_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C16);
91   w7_t = SHA256_S1(w5_t) + w0_t + SHA256_S0(w8_t) + w7_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C17);
92   w8_t = SHA256_S1(w6_t) + w1_t + SHA256_S0(w9_t) + w8_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C18);
93   w9_t = SHA256_S1(w7_t) + w2_t + SHA256_S0(wa_t) + w9_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C19);
94   wa_t = SHA256_S1(w8_t) + w3_t + SHA256_S0(wb_t) + wa_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C1a);
95   wb_t = SHA256_S1(w9_t) + w4_t + SHA256_S0(wc_t) + wb_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C1b);
96   wc_t = SHA256_S1(wa_t) + w5_t + SHA256_S0(wd_t) + wc_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C1c);
97   wd_t = SHA256_S1(wb_t) + w6_t + SHA256_S0(we_t) + wd_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C1d);
98   we_t = SHA256_S1(wc_t) + w7_t + SHA256_S0(wf_t) + we_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C1e);
99   wf_t = SHA256_S1(wd_t) + w8_t + SHA256_S0(w0_t) + wf_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C1f);
100   w0_t = SHA256_S1(we_t) + w9_t + SHA256_S0(w1_t) + w0_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C20);
101   w1_t = SHA256_S1(wf_t) + wa_t + SHA256_S0(w2_t) + w1_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C21);
102   w2_t = SHA256_S1(w0_t) + wb_t + SHA256_S0(w3_t) + w2_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C22);
103   w3_t = SHA256_S1(w1_t) + wc_t + SHA256_S0(w4_t) + w3_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C23);
104   w4_t = SHA256_S1(w2_t) + wd_t + SHA256_S0(w5_t) + w4_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C24);
105   w5_t = SHA256_S1(w3_t) + we_t + SHA256_S0(w6_t) + w5_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C25);
106   w6_t = SHA256_S1(w4_t) + wf_t + SHA256_S0(w7_t) + w6_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C26);
107   w7_t = SHA256_S1(w5_t) + w0_t + SHA256_S0(w8_t) + w7_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C27);
108   w8_t = SHA256_S1(w6_t) + w1_t + SHA256_S0(w9_t) + w8_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C28);
109   w9_t = SHA256_S1(w7_t) + w2_t + SHA256_S0(wa_t) + w9_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C29);
110   wa_t = SHA256_S1(w8_t) + w3_t + SHA256_S0(wb_t) + wa_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C2a);
111   wb_t = SHA256_S1(w9_t) + w4_t + SHA256_S0(wc_t) + wb_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C2b);
112   wc_t = SHA256_S1(wa_t) + w5_t + SHA256_S0(wd_t) + wc_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C2c);
113   wd_t = SHA256_S1(wb_t) + w6_t + SHA256_S0(we_t) + wd_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C2d);
114   we_t = SHA256_S1(wc_t) + w7_t + SHA256_S0(wf_t) + we_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C2e);
115   wf_t = SHA256_S1(wd_t) + w8_t + SHA256_S0(w0_t) + wf_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C2f);
116   w0_t = SHA256_S1(we_t) + w9_t + SHA256_S0(w1_t) + w0_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C30);
117   w1_t = SHA256_S1(wf_t) + wa_t + SHA256_S0(w2_t) + w1_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C31);
118   w2_t = SHA256_S1(w0_t) + wb_t + SHA256_S0(w3_t) + w2_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C32);
119   w3_t = SHA256_S1(w1_t) + wc_t + SHA256_S0(w4_t) + w3_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C33);
120   w4_t = SHA256_S1(w2_t) + wd_t + SHA256_S0(w5_t) + w4_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C34);
121   w5_t = SHA256_S1(w3_t) + we_t + SHA256_S0(w6_t) + w5_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C35);
122   w6_t = SHA256_S1(w4_t) + wf_t + SHA256_S0(w7_t) + w6_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C36);
123   w7_t = SHA256_S1(w5_t) + w0_t + SHA256_S0(w8_t) + w7_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C37);
124   w8_t = SHA256_S1(w6_t) + w1_t + SHA256_S0(w9_t) + w8_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C38);
125   w9_t = SHA256_S1(w7_t) + w2_t + SHA256_S0(wa_t) + w9_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C39);
126   wa_t = SHA256_S1(w8_t) + w3_t + SHA256_S0(wb_t) + wa_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C3a);
127   wb_t = SHA256_S1(w9_t) + w4_t + SHA256_S0(wc_t) + wb_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C3b);
128   wc_t = SHA256_S1(wa_t) + w5_t + SHA256_S0(wd_t) + wc_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C3c);
129   wd_t = SHA256_S1(wb_t) + w6_t + SHA256_S0(we_t) + wd_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C3d);
130   we_t = SHA256_S1(wc_t) + w7_t + SHA256_S0(wf_t) + we_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C3e);
131   wf_t = SHA256_S1(wd_t) + w8_t + SHA256_S0(w0_t) + wf_t; SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C3f);
132
133   digest[0] += a;
134   digest[1] += b;
135   digest[2] += c;
136   digest[3] += d;
137   digest[4] += e;
138   digest[5] += f;
139   digest[6] += g;
140   digest[7] += h;
141 }
142
143 extern "C" __global__ void __launch_bounds__ (256, 1) m05200_init (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, pwsafe3_tmp_t *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
144 {
145   /**
146    * base
147    */
148
149   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
150
151   if (gid >= gid_max) return;
152
153   u32x w0[4];
154
155   w0[0] = pws[gid].i[ 0];
156   w0[1] = pws[gid].i[ 1];
157   w0[2] = pws[gid].i[ 2];
158   w0[3] = pws[gid].i[ 3];
159
160   u32x w1[4];
161
162   w1[0] = pws[gid].i[ 4];
163   w1[1] = pws[gid].i[ 5];
164   w1[2] = 0;
165   w1[3] = 0;
166
167   u32x w2[4];
168
169   w2[0] = 0;
170   w2[1] = 0;
171   w2[2] = 0;
172   w2[3] = 0;
173
174   u32x w3[4];
175
176   w3[0] = 0;
177   w3[1] = 0;
178   w3[2] = 0;
179   w3[3] = 0;
180
181   const u32 pw_len = pws[gid].pw_len;
182
183   /**
184    * salt
185    */
186
187   u32 salt_buf0[4];
188
189   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[0];
190   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[1];
191   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[2];
192   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[3];
193
194   u32 salt_buf1[4];
195
196   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[4];
197   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[5];
198   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[6];
199   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[7];
200
201   u32 salt_buf2[4];
202
203   salt_buf2[0] = 0;
204   salt_buf2[1] = 0;
205   salt_buf2[2] = 0;
206   salt_buf2[3] = 0;
207
208   u32 salt_buf3[4];
209
210   salt_buf3[0] = 0;
211   salt_buf3[1] = 0;
212   salt_buf3[2] = 0;
213   salt_buf3[3] = 0;
214
215   u32 salt_len = salt_bufs[salt_pos].salt_len;
216
217   switch_buffer_by_offset (salt_buf0, salt_buf1, salt_buf2, salt_buf3, pw_len);
218
219   w0[0] |= salt_buf0[0];
220   w0[1] |= salt_buf0[1];
221   w0[2] |= salt_buf0[2];
222   w0[3] |= salt_buf0[3];
223
224   w1[0] |= salt_buf1[0];
225   w1[1] |= salt_buf1[1];
226   w1[2] |= salt_buf1[2];
227   w1[3] |= salt_buf1[3];
228
229   w2[0] |= salt_buf2[0];
230   w2[1] |= salt_buf2[1];
231   w2[2] |= salt_buf2[2];
232   w2[3] |= salt_buf2[3];
233
234   w3[0] |= salt_buf3[0];
235   w3[1] |= salt_buf3[1];
236   w3[2] |= salt_buf3[2];
237   w3[3] |= salt_buf3[3];
238
239   const u32 block_len = pw_len + salt_len;
240
241   append_0x80_4 (w0, w1, w2, w3, block_len);
242
243   /**
244    * init
245    */
246
247   w0[0] = swap_workaround (w0[0]);
248   w0[1] = swap_workaround (w0[1]);
249   w0[2] = swap_workaround (w0[2]);
250   w0[3] = swap_workaround (w0[3]);
251
252   w1[0] = swap_workaround (w1[0]);
253   w1[1] = swap_workaround (w1[1]);
254   w1[2] = swap_workaround (w1[2]);
255   w1[3] = swap_workaround (w1[3]);
256
257   w2[0] = swap_workaround (w2[0]);
258   w2[1] = swap_workaround (w2[1]);
259   w2[2] = swap_workaround (w2[2]);
260   w2[3] = swap_workaround (w2[3]);
261
262   w3[0] = swap_workaround (w3[0]);
263   w3[1] = swap_workaround (w3[1]);
264   w3[2] = 0;
265   w3[3] = block_len * 8;
266
267   /**
268    * main
269    */
270
271   u32x digest[8];
272
273   digest[0] = SHA256M_A;
274   digest[1] = SHA256M_B;
275   digest[2] = SHA256M_C;
276   digest[3] = SHA256M_D;
277   digest[4] = SHA256M_E;
278   digest[5] = SHA256M_F;
279   digest[6] = SHA256M_G;
280   digest[7] = SHA256M_H;
281
282   sha256_64 (w0, w1, w2, w3, digest);
283
284   tmps[gid].digest_buf[0] = digest[0];
285   tmps[gid].digest_buf[1] = digest[1];
286   tmps[gid].digest_buf[2] = digest[2];
287   tmps[gid].digest_buf[3] = digest[3];
288   tmps[gid].digest_buf[4] = digest[4];
289   tmps[gid].digest_buf[5] = digest[5];
290   tmps[gid].digest_buf[6] = digest[6];
291   tmps[gid].digest_buf[7] = digest[7];
292 }
293
294 extern "C" __global__ void __launch_bounds__ (256, 1) m05200_loop (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, pwsafe3_tmp_t *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
295 {
296   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
297
298   if (gid >= gid_max) return;
299
300   u32x digest[8];
301
302   digest[0] = tmps[gid].digest_buf[0];
303   digest[1] = tmps[gid].digest_buf[1];
304   digest[2] = tmps[gid].digest_buf[2];
305   digest[3] = tmps[gid].digest_buf[3];
306   digest[4] = tmps[gid].digest_buf[4];
307   digest[5] = tmps[gid].digest_buf[5];
308   digest[6] = tmps[gid].digest_buf[6];
309   digest[7] = tmps[gid].digest_buf[7];
310
311   for (u32 i = 0; i < loop_cnt; i++)
312   {
313     u32x w0[4];
314
315     w0[0] = digest[0];
316     w0[1] = digest[1];
317     w0[2] = digest[2];
318     w0[3] = digest[3];
319
320     u32x w1[4];
321
322     w1[0] = digest[4];
323     w1[1] = digest[5];
324     w1[2] = digest[6];
325     w1[3] = digest[7];
326
327     u32x w2[4];
328
329     w2[0] = 0x80000000;
330     w2[1] = 0;
331     w2[2] = 0;
332     w2[3] = 0;
333
334     u32x w3[4];
335
336     w3[0] = 0;
337     w3[1] = 0;
338     w3[2] = 0;
339     w3[3] = 32 * 8;
340
341     digest[0] = SHA256M_A;
342     digest[1] = SHA256M_B;
343     digest[2] = SHA256M_C;
344     digest[3] = SHA256M_D;
345     digest[4] = SHA256M_E;
346     digest[5] = SHA256M_F;
347     digest[6] = SHA256M_G;
348     digest[7] = SHA256M_H;
349
350     sha256_64 (w0, w1, w2, w3, digest);
351   }
352
353   tmps[gid].digest_buf[0] = digest[0];
354   tmps[gid].digest_buf[1] = digest[1];
355   tmps[gid].digest_buf[2] = digest[2];
356   tmps[gid].digest_buf[3] = digest[3];
357   tmps[gid].digest_buf[4] = digest[4];
358   tmps[gid].digest_buf[5] = digest[5];
359   tmps[gid].digest_buf[6] = digest[6];
360   tmps[gid].digest_buf[7] = digest[7];
361 }
362
363 extern "C" __global__ void __launch_bounds__ (256, 1) m05200_comp (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, pwsafe3_tmp_t *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
364 {
365   /**
366    * modifier
367    */
368
369   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
370
371   if (gid >= gid_max) return;
372
373   const u32 lid = threadIdx.x;
374
375   /**
376    * digest
377    */
378
379   const u32x r0 = tmps[gid].digest_buf[DGST_R0];
380   const u32x r1 = tmps[gid].digest_buf[DGST_R1];
381   const u32x r2 = tmps[gid].digest_buf[DGST_R2];
382   const u32x r3 = tmps[gid].digest_buf[DGST_R3];
383
384   #define il_pos 0
385
386   #include VECT_COMPARE_M
387 }