Initial commit
[hashcat.git] / nv / m04400_a3.cu
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _MD5_SHA1_
7
8 #include "include/constants.h"
9 #include "include/kernel_vendor.h"
10
11 #ifdef  VLIW1
12 #define VECT_SIZE1
13 #endif
14
15 #ifdef  VLIW2
16 #define VECT_SIZE1
17 #endif
18
19 #define DGST_R0 0
20 #define DGST_R1 3
21 #define DGST_R2 2
22 #define DGST_R3 1
23
24 #include "include/kernel_functions.c"
25 #include "types_nv.c"
26 #include "common_nv.c"
27
28 #ifdef  VECT_SIZE1
29 #define VECT_COMPARE_S "check_single_vect1_comp4.c"
30 #define VECT_COMPARE_M "check_multi_vect1_comp4.c"
31 #endif
32
33 #ifdef  VECT_SIZE2
34 #define VECT_COMPARE_S "check_single_vect2_comp4.c"
35 #define VECT_COMPARE_M "check_multi_vect2_comp4.c"
36 #endif
37
38 #ifdef  VECT_SIZE4
39 #define VECT_COMPARE_S "check_single_vect4_comp4.c"
40 #define VECT_COMPARE_M "check_multi_vect4_comp4.c"
41 #endif
42
43 #ifdef VECT_SIZE1
44 #define uint_to_hex_lower8(i) l_bin2asc[(i)]
45 #endif
46
47 #ifdef VECT_SIZE2
48 #define uint_to_hex_lower8(i) u32x (l_bin2asc[(i).x], l_bin2asc[(i).y])
49 #endif
50
51 #ifdef VECT_SIZE4
52 #define uint_to_hex_lower8(i) u32x (l_bin2asc[(i).x], l_bin2asc[(i).y], l_bin2asc[(i).z], l_bin2asc[(i).w])
53 #endif
54
55 __device__ __constant__ char c_bin2asc[16] = { '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', 'a', 'b', 'c', 'd', 'e', 'f' };
56
57 __device__ __shared__ short l_bin2asc[256];
58
59 __device__ __constant__ bf_t c_bfs[1024];
60
61 __device__ static void m04400m (u32x w0[4], u32x w1[4], u32x w2[4], u32x w3[4], const u32 pw_len, const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset)
62 {
63   /**
64    * modifier
65    */
66
67   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
68   const u32 lid = threadIdx.x;
69
70   /**
71    * loop
72    */
73
74   u32x w0l = w0[0];
75
76   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos++)
77   {
78     const u32 w0r = c_bfs[il_pos].i;
79
80     w0[0] = w0l | w0r;
81
82     /**
83      * sha1
84      */
85
86     u32x w0_t = w0[0];
87     u32x w1_t = w0[1];
88     u32x w2_t = w0[2];
89     u32x w3_t = w0[3];
90     u32x w4_t = w1[0];
91     u32x w5_t = w1[1];
92     u32x w6_t = w1[2];
93     u32x w7_t = w1[3];
94     u32x w8_t = w2[0];
95     u32x w9_t = w2[1];
96     u32x wa_t = w2[2];
97     u32x wb_t = w2[3];
98     u32x wc_t = w3[0];
99     u32x wd_t = w3[1];
100     u32x we_t = 0;
101     u32x wf_t = pw_len * 8;
102
103     u32x a = SHA1M_A;
104     u32x b = SHA1M_B;
105     u32x c = SHA1M_C;
106     u32x d = SHA1M_D;
107     u32x e = SHA1M_E;
108
109     #undef K
110     #define K SHA1C00
111
112     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t);
113     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t);
114     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w2_t);
115     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t);
116     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w4_t);
117     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w5_t);
118     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w6_t);
119     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w7_t);
120     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w8_t);
121     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w9_t);
122     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wa_t);
123     SHA1_STEP (SHA1_F0o, e, a, b, c, d, wb_t);
124     SHA1_STEP (SHA1_F0o, d, e, a, b, c, wc_t);
125     SHA1_STEP (SHA1_F0o, c, d, e, a, b, wd_t);
126     SHA1_STEP (SHA1_F0o, b, c, d, e, a, we_t);
127     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wf_t);
128     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t);
129     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t);
130     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t);
131     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t);
132
133     #undef K
134     #define K SHA1C01
135
136     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w4_t);
137     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w5_t);
138     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w6_t);
139     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w7_t);
140     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w8_t);
141     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w9_t);
142     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wa_t);
143     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wb_t);
144     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wc_t);
145     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wd_t);
146     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, we_t);
147     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wf_t);
148     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t);
149     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t);
150     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t);
151     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t);
152     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w4_t);
153     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w5_t);
154     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w6_t);
155     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w7_t);
156
157     #undef K
158     #define K SHA1C02
159
160     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w8_t);
161     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w9_t);
162     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wa_t);
163     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wb_t);
164     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wc_t);
165     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, wd_t);
166     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, we_t);
167     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wf_t);
168     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t);
169     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t);
170     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t);
171     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t);
172     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w4_t);
173     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w5_t);
174     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w6_t);
175     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w7_t);
176     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w8_t);
177     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w9_t);
178     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wa_t);
179     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wb_t);
180
181     #undef K
182     #define K SHA1C03
183
184     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wc_t);
185     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wd_t);
186     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, we_t);
187     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wf_t);
188     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t);
189     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t);
190     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t);
191     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t);
192     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w4_t);
193     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w5_t);
194     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w6_t);
195     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w7_t);
196     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w8_t);
197     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w9_t);
198     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wa_t);
199     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wb_t);
200     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wc_t);
201     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wd_t);
202     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, we_t);
203     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wf_t);
204
205     a += SHA1M_A;
206     b += SHA1M_B;
207     c += SHA1M_C;
208     d += SHA1M_D;
209     e += SHA1M_E;
210
211     /**
212      * md5
213      */
214
215     w0_t = uint_to_hex_lower8 ((a >> 24) & 255) <<  0
216          | uint_to_hex_lower8 ((a >> 16) & 255) << 16;
217     w1_t = uint_to_hex_lower8 ((a >>  8) & 255) <<  0
218          | uint_to_hex_lower8 ((a >>  0) & 255) << 16;
219     w2_t = uint_to_hex_lower8 ((b >> 24) & 255) <<  0
220          | uint_to_hex_lower8 ((b >> 16) & 255) << 16;
221     w3_t = uint_to_hex_lower8 ((b >>  8) & 255) <<  0
222          | uint_to_hex_lower8 ((b >>  0) & 255) << 16;
223     w4_t = uint_to_hex_lower8 ((c >> 24) & 255) <<  0
224          | uint_to_hex_lower8 ((c >> 16) & 255) << 16;
225     w5_t = uint_to_hex_lower8 ((c >>  8) & 255) <<  0
226          | uint_to_hex_lower8 ((c >>  0) & 255) << 16;
227     w6_t = uint_to_hex_lower8 ((d >> 24) & 255) <<  0
228          | uint_to_hex_lower8 ((d >> 16) & 255) << 16;
229     w7_t = uint_to_hex_lower8 ((d >>  8) & 255) <<  0
230          | uint_to_hex_lower8 ((d >>  0) & 255) << 16;
231     w8_t = uint_to_hex_lower8 ((e >> 24) & 255) <<  0
232          | uint_to_hex_lower8 ((e >> 16) & 255) << 16;
233     w9_t = uint_to_hex_lower8 ((e >>  8) & 255) <<  0
234          | uint_to_hex_lower8 ((e >>  0) & 255) << 16;
235
236     wa_t = 0x80;
237     wb_t = 0;
238     wc_t = 0;
239     wd_t = 0;
240     we_t = 40 * 8;
241     wf_t = 0;
242
243     a = MD5M_A;
244     b = MD5M_B;
245     c = MD5M_C;
246     d = MD5M_D;
247
248     MD5_STEP (MD5_Fo, a, b, c, d, w0_t, MD5C00, MD5S00);
249     MD5_STEP (MD5_Fo, d, a, b, c, w1_t, MD5C01, MD5S01);
250     MD5_STEP (MD5_Fo, c, d, a, b, w2_t, MD5C02, MD5S02);
251     MD5_STEP (MD5_Fo, b, c, d, a, w3_t, MD5C03, MD5S03);
252     MD5_STEP (MD5_Fo, a, b, c, d, w4_t, MD5C04, MD5S00);
253     MD5_STEP (MD5_Fo, d, a, b, c, w5_t, MD5C05, MD5S01);
254     MD5_STEP (MD5_Fo, c, d, a, b, w6_t, MD5C06, MD5S02);
255     MD5_STEP (MD5_Fo, b, c, d, a, w7_t, MD5C07, MD5S03);
256     MD5_STEP (MD5_Fo, a, b, c, d, w8_t, MD5C08, MD5S00);
257     MD5_STEP (MD5_Fo, d, a, b, c, w9_t, MD5C09, MD5S01);
258     MD5_STEP (MD5_Fo, c, d, a, b, wa_t, MD5C0a, MD5S02);
259     MD5_STEP (MD5_Fo, b, c, d, a, wb_t, MD5C0b, MD5S03);
260     MD5_STEP (MD5_Fo, a, b, c, d, wc_t, MD5C0c, MD5S00);
261     MD5_STEP (MD5_Fo, d, a, b, c, wd_t, MD5C0d, MD5S01);
262     MD5_STEP (MD5_Fo, c, d, a, b, we_t, MD5C0e, MD5S02);
263     MD5_STEP (MD5_Fo, b, c, d, a, wf_t, MD5C0f, MD5S03);
264
265     MD5_STEP (MD5_Go, a, b, c, d, w1_t, MD5C10, MD5S10);
266     MD5_STEP (MD5_Go, d, a, b, c, w6_t, MD5C11, MD5S11);
267     MD5_STEP (MD5_Go, c, d, a, b, wb_t, MD5C12, MD5S12);
268     MD5_STEP (MD5_Go, b, c, d, a, w0_t, MD5C13, MD5S13);
269     MD5_STEP (MD5_Go, a, b, c, d, w5_t, MD5C14, MD5S10);
270     MD5_STEP (MD5_Go, d, a, b, c, wa_t, MD5C15, MD5S11);
271     MD5_STEP (MD5_Go, c, d, a, b, wf_t, MD5C16, MD5S12);
272     MD5_STEP (MD5_Go, b, c, d, a, w4_t, MD5C17, MD5S13);
273     MD5_STEP (MD5_Go, a, b, c, d, w9_t, MD5C18, MD5S10);
274     MD5_STEP (MD5_Go, d, a, b, c, we_t, MD5C19, MD5S11);
275     MD5_STEP (MD5_Go, c, d, a, b, w3_t, MD5C1a, MD5S12);
276     MD5_STEP (MD5_Go, b, c, d, a, w8_t, MD5C1b, MD5S13);
277     MD5_STEP (MD5_Go, a, b, c, d, wd_t, MD5C1c, MD5S10);
278     MD5_STEP (MD5_Go, d, a, b, c, w2_t, MD5C1d, MD5S11);
279     MD5_STEP (MD5_Go, c, d, a, b, w7_t, MD5C1e, MD5S12);
280     MD5_STEP (MD5_Go, b, c, d, a, wc_t, MD5C1f, MD5S13);
281
282     MD5_STEP (MD5_H , a, b, c, d, w5_t, MD5C20, MD5S20);
283     MD5_STEP (MD5_H , d, a, b, c, w8_t, MD5C21, MD5S21);
284     MD5_STEP (MD5_H , c, d, a, b, wb_t, MD5C22, MD5S22);
285     MD5_STEP (MD5_H , b, c, d, a, we_t, MD5C23, MD5S23);
286     MD5_STEP (MD5_H , a, b, c, d, w1_t, MD5C24, MD5S20);
287     MD5_STEP (MD5_H , d, a, b, c, w4_t, MD5C25, MD5S21);
288     MD5_STEP (MD5_H , c, d, a, b, w7_t, MD5C26, MD5S22);
289     MD5_STEP (MD5_H , b, c, d, a, wa_t, MD5C27, MD5S23);
290     MD5_STEP (MD5_H , a, b, c, d, wd_t, MD5C28, MD5S20);
291     MD5_STEP (MD5_H , d, a, b, c, w0_t, MD5C29, MD5S21);
292     MD5_STEP (MD5_H , c, d, a, b, w3_t, MD5C2a, MD5S22);
293     MD5_STEP (MD5_H , b, c, d, a, w6_t, MD5C2b, MD5S23);
294     MD5_STEP (MD5_H , a, b, c, d, w9_t, MD5C2c, MD5S20);
295     MD5_STEP (MD5_H , d, a, b, c, wc_t, MD5C2d, MD5S21);
296     MD5_STEP (MD5_H , c, d, a, b, wf_t, MD5C2e, MD5S22);
297     MD5_STEP (MD5_H , b, c, d, a, w2_t, MD5C2f, MD5S23);
298
299     MD5_STEP (MD5_I , a, b, c, d, w0_t, MD5C30, MD5S30);
300     MD5_STEP (MD5_I , d, a, b, c, w7_t, MD5C31, MD5S31);
301     MD5_STEP (MD5_I , c, d, a, b, we_t, MD5C32, MD5S32);
302     MD5_STEP (MD5_I , b, c, d, a, w5_t, MD5C33, MD5S33);
303     MD5_STEP (MD5_I , a, b, c, d, wc_t, MD5C34, MD5S30);
304     MD5_STEP (MD5_I , d, a, b, c, w3_t, MD5C35, MD5S31);
305     MD5_STEP (MD5_I , c, d, a, b, wa_t, MD5C36, MD5S32);
306     MD5_STEP (MD5_I , b, c, d, a, w1_t, MD5C37, MD5S33);
307     MD5_STEP (MD5_I , a, b, c, d, w8_t, MD5C38, MD5S30);
308     MD5_STEP (MD5_I , d, a, b, c, wf_t, MD5C39, MD5S31);
309     MD5_STEP (MD5_I , c, d, a, b, w6_t, MD5C3a, MD5S32);
310     MD5_STEP (MD5_I , b, c, d, a, wd_t, MD5C3b, MD5S33);
311     MD5_STEP (MD5_I , a, b, c, d, w4_t, MD5C3c, MD5S30);
312     MD5_STEP (MD5_I , d, a, b, c, wb_t, MD5C3d, MD5S31);
313     MD5_STEP (MD5_I , c, d, a, b, w2_t, MD5C3e, MD5S32);
314     MD5_STEP (MD5_I , b, c, d, a, w9_t, MD5C3f, MD5S33);
315
316     const u32x r0 = a;
317     const u32x r1 = d;
318     const u32x r2 = c;
319     const u32x r3 = b;
320
321     #include VECT_COMPARE_M
322   }
323 }
324
325 __device__ static void m04400s (u32x w0[4], u32x w1[4], u32x w2[4], u32x w3[4], const u32 pw_len, const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset)
326 {
327   /**
328    * modifier
329    */
330
331   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
332   const u32 lid = threadIdx.x;
333
334   /**
335    * digest
336    */
337
338   const u32 search[4] =
339   {
340     digests_buf[digests_offset].digest_buf[DGST_R0],
341     digests_buf[digests_offset].digest_buf[DGST_R1],
342     digests_buf[digests_offset].digest_buf[DGST_R2],
343     digests_buf[digests_offset].digest_buf[DGST_R3]
344   };
345
346   /**
347    * loop
348    */
349
350   u32x w0l = w0[0];
351
352   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos++)
353   {
354     const u32 w0r = c_bfs[il_pos].i;
355
356     w0[0] = w0l | w0r;
357
358     /**
359      * sha1
360      */
361
362     u32x w0_t = w0[0];
363     u32x w1_t = w0[1];
364     u32x w2_t = w0[2];
365     u32x w3_t = w0[3];
366     u32x w4_t = w1[0];
367     u32x w5_t = w1[1];
368     u32x w6_t = w1[2];
369     u32x w7_t = w1[3];
370     u32x w8_t = w2[0];
371     u32x w9_t = w2[1];
372     u32x wa_t = w2[2];
373     u32x wb_t = w2[3];
374     u32x wc_t = w3[0];
375     u32x wd_t = w3[1];
376     u32x we_t = 0;
377     u32x wf_t = pw_len * 8;
378
379     u32x a = SHA1M_A;
380     u32x b = SHA1M_B;
381     u32x c = SHA1M_C;
382     u32x d = SHA1M_D;
383     u32x e = SHA1M_E;
384
385     #undef K
386     #define K SHA1C00
387
388     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t);
389     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t);
390     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w2_t);
391     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t);
392     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w4_t);
393     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w5_t);
394     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w6_t);
395     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w7_t);
396     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w8_t);
397     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w9_t);
398     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wa_t);
399     SHA1_STEP (SHA1_F0o, e, a, b, c, d, wb_t);
400     SHA1_STEP (SHA1_F0o, d, e, a, b, c, wc_t);
401     SHA1_STEP (SHA1_F0o, c, d, e, a, b, wd_t);
402     SHA1_STEP (SHA1_F0o, b, c, d, e, a, we_t);
403     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wf_t);
404     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t);
405     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t);
406     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t);
407     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t);
408
409     #undef K
410     #define K SHA1C01
411
412     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w4_t);
413     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w5_t);
414     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w6_t);
415     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w7_t);
416     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w8_t);
417     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w9_t);
418     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wa_t);
419     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wb_t);
420     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wc_t);
421     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wd_t);
422     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, we_t);
423     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wf_t);
424     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t);
425     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t);
426     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t);
427     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t);
428     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w4_t);
429     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w5_t);
430     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w6_t);
431     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w7_t);
432
433     #undef K
434     #define K SHA1C02
435
436     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w8_t);
437     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w9_t);
438     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wa_t);
439     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wb_t);
440     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wc_t);
441     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, wd_t);
442     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, we_t);
443     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wf_t);
444     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t);
445     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t);
446     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t);
447     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t);
448     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w4_t);
449     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w5_t);
450     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w6_t);
451     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w7_t);
452     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w8_t);
453     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w9_t);
454     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wa_t);
455     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wb_t);
456
457     #undef K
458     #define K SHA1C03
459
460     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wc_t);
461     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wd_t);
462     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, we_t);
463     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wf_t);
464     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t);
465     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t);
466     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t);
467     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t);
468     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w4_t);
469     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w5_t);
470     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w6_t);
471     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w7_t);
472     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w8_t);
473     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w9_t);
474     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wa_t);
475     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wb_t);
476     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wc_t);
477     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wd_t);
478     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, we_t);
479     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wf_t);
480
481     a += SHA1M_A;
482     b += SHA1M_B;
483     c += SHA1M_C;
484     d += SHA1M_D;
485     e += SHA1M_E;
486
487     /**
488      * md5
489      */
490
491     w0_t = uint_to_hex_lower8 ((a >> 24) & 255) <<  0
492          | uint_to_hex_lower8 ((a >> 16) & 255) << 16;
493     w1_t = uint_to_hex_lower8 ((a >>  8) & 255) <<  0
494          | uint_to_hex_lower8 ((a >>  0) & 255) << 16;
495     w2_t = uint_to_hex_lower8 ((b >> 24) & 255) <<  0
496          | uint_to_hex_lower8 ((b >> 16) & 255) << 16;
497     w3_t = uint_to_hex_lower8 ((b >>  8) & 255) <<  0
498          | uint_to_hex_lower8 ((b >>  0) & 255) << 16;
499     w4_t = uint_to_hex_lower8 ((c >> 24) & 255) <<  0
500          | uint_to_hex_lower8 ((c >> 16) & 255) << 16;
501     w5_t = uint_to_hex_lower8 ((c >>  8) & 255) <<  0
502          | uint_to_hex_lower8 ((c >>  0) & 255) << 16;
503     w6_t = uint_to_hex_lower8 ((d >> 24) & 255) <<  0
504          | uint_to_hex_lower8 ((d >> 16) & 255) << 16;
505     w7_t = uint_to_hex_lower8 ((d >>  8) & 255) <<  0
506          | uint_to_hex_lower8 ((d >>  0) & 255) << 16;
507     w8_t = uint_to_hex_lower8 ((e >> 24) & 255) <<  0
508          | uint_to_hex_lower8 ((e >> 16) & 255) << 16;
509     w9_t = uint_to_hex_lower8 ((e >>  8) & 255) <<  0
510          | uint_to_hex_lower8 ((e >>  0) & 255) << 16;
511
512     wa_t = 0x80;
513     wb_t = 0;
514     wc_t = 0;
515     wd_t = 0;
516     we_t = 40 * 8;
517     wf_t = 0;
518
519     a = MD5M_A;
520     b = MD5M_B;
521     c = MD5M_C;
522     d = MD5M_D;
523
524     MD5_STEP (MD5_Fo, a, b, c, d, w0_t, MD5C00, MD5S00);
525     MD5_STEP (MD5_Fo, d, a, b, c, w1_t, MD5C01, MD5S01);
526     MD5_STEP (MD5_Fo, c, d, a, b, w2_t, MD5C02, MD5S02);
527     MD5_STEP (MD5_Fo, b, c, d, a, w3_t, MD5C03, MD5S03);
528     MD5_STEP (MD5_Fo, a, b, c, d, w4_t, MD5C04, MD5S00);
529     MD5_STEP (MD5_Fo, d, a, b, c, w5_t, MD5C05, MD5S01);
530     MD5_STEP (MD5_Fo, c, d, a, b, w6_t, MD5C06, MD5S02);
531     MD5_STEP (MD5_Fo, b, c, d, a, w7_t, MD5C07, MD5S03);
532     MD5_STEP (MD5_Fo, a, b, c, d, w8_t, MD5C08, MD5S00);
533     MD5_STEP (MD5_Fo, d, a, b, c, w9_t, MD5C09, MD5S01);
534     MD5_STEP (MD5_Fo, c, d, a, b, wa_t, MD5C0a, MD5S02);
535     MD5_STEP (MD5_Fo, b, c, d, a, wb_t, MD5C0b, MD5S03);
536     MD5_STEP (MD5_Fo, a, b, c, d, wc_t, MD5C0c, MD5S00);
537     MD5_STEP (MD5_Fo, d, a, b, c, wd_t, MD5C0d, MD5S01);
538     MD5_STEP (MD5_Fo, c, d, a, b, we_t, MD5C0e, MD5S02);
539     MD5_STEP (MD5_Fo, b, c, d, a, wf_t, MD5C0f, MD5S03);
540
541     MD5_STEP (MD5_Go, a, b, c, d, w1_t, MD5C10, MD5S10);
542     MD5_STEP (MD5_Go, d, a, b, c, w6_t, MD5C11, MD5S11);
543     MD5_STEP (MD5_Go, c, d, a, b, wb_t, MD5C12, MD5S12);
544     MD5_STEP (MD5_Go, b, c, d, a, w0_t, MD5C13, MD5S13);
545     MD5_STEP (MD5_Go, a, b, c, d, w5_t, MD5C14, MD5S10);
546     MD5_STEP (MD5_Go, d, a, b, c, wa_t, MD5C15, MD5S11);
547     MD5_STEP (MD5_Go, c, d, a, b, wf_t, MD5C16, MD5S12);
548     MD5_STEP (MD5_Go, b, c, d, a, w4_t, MD5C17, MD5S13);
549     MD5_STEP (MD5_Go, a, b, c, d, w9_t, MD5C18, MD5S10);
550     MD5_STEP (MD5_Go, d, a, b, c, we_t, MD5C19, MD5S11);
551     MD5_STEP (MD5_Go, c, d, a, b, w3_t, MD5C1a, MD5S12);
552     MD5_STEP (MD5_Go, b, c, d, a, w8_t, MD5C1b, MD5S13);
553     MD5_STEP (MD5_Go, a, b, c, d, wd_t, MD5C1c, MD5S10);
554     MD5_STEP (MD5_Go, d, a, b, c, w2_t, MD5C1d, MD5S11);
555     MD5_STEP (MD5_Go, c, d, a, b, w7_t, MD5C1e, MD5S12);
556     MD5_STEP (MD5_Go, b, c, d, a, wc_t, MD5C1f, MD5S13);
557
558     MD5_STEP (MD5_H , a, b, c, d, w5_t, MD5C20, MD5S20);
559     MD5_STEP (MD5_H , d, a, b, c, w8_t, MD5C21, MD5S21);
560     MD5_STEP (MD5_H , c, d, a, b, wb_t, MD5C22, MD5S22);
561     MD5_STEP (MD5_H , b, c, d, a, we_t, MD5C23, MD5S23);
562     MD5_STEP (MD5_H , a, b, c, d, w1_t, MD5C24, MD5S20);
563     MD5_STEP (MD5_H , d, a, b, c, w4_t, MD5C25, MD5S21);
564     MD5_STEP (MD5_H , c, d, a, b, w7_t, MD5C26, MD5S22);
565     MD5_STEP (MD5_H , b, c, d, a, wa_t, MD5C27, MD5S23);
566     MD5_STEP (MD5_H , a, b, c, d, wd_t, MD5C28, MD5S20);
567     MD5_STEP (MD5_H , d, a, b, c, w0_t, MD5C29, MD5S21);
568     MD5_STEP (MD5_H , c, d, a, b, w3_t, MD5C2a, MD5S22);
569     MD5_STEP (MD5_H , b, c, d, a, w6_t, MD5C2b, MD5S23);
570     MD5_STEP (MD5_H , a, b, c, d, w9_t, MD5C2c, MD5S20);
571     MD5_STEP (MD5_H , d, a, b, c, wc_t, MD5C2d, MD5S21);
572     MD5_STEP (MD5_H , c, d, a, b, wf_t, MD5C2e, MD5S22);
573     MD5_STEP (MD5_H , b, c, d, a, w2_t, MD5C2f, MD5S23);
574
575     MD5_STEP (MD5_I , a, b, c, d, w0_t, MD5C30, MD5S30);
576     MD5_STEP (MD5_I , d, a, b, c, w7_t, MD5C31, MD5S31);
577     MD5_STEP (MD5_I , c, d, a, b, we_t, MD5C32, MD5S32);
578     MD5_STEP (MD5_I , b, c, d, a, w5_t, MD5C33, MD5S33);
579     MD5_STEP (MD5_I , a, b, c, d, wc_t, MD5C34, MD5S30);
580     MD5_STEP (MD5_I , d, a, b, c, w3_t, MD5C35, MD5S31);
581     MD5_STEP (MD5_I , c, d, a, b, wa_t, MD5C36, MD5S32);
582     MD5_STEP (MD5_I , b, c, d, a, w1_t, MD5C37, MD5S33);
583     MD5_STEP (MD5_I , a, b, c, d, w8_t, MD5C38, MD5S30);
584     MD5_STEP (MD5_I , d, a, b, c, wf_t, MD5C39, MD5S31);
585     MD5_STEP (MD5_I , c, d, a, b, w6_t, MD5C3a, MD5S32);
586     MD5_STEP (MD5_I , b, c, d, a, wd_t, MD5C3b, MD5S33);
587     MD5_STEP (MD5_I , a, b, c, d, w4_t, MD5C3c, MD5S30);
588     MD5_STEP (MD5_I , d, a, b, c, wb_t, MD5C3d, MD5S31);
589     MD5_STEP (MD5_I , c, d, a, b, w2_t, MD5C3e, MD5S32);
590     MD5_STEP (MD5_I , b, c, d, a, w9_t, MD5C3f, MD5S33);
591
592     const u32x r0 = a;
593     const u32x r1 = d;
594     const u32x r2 = c;
595     const u32x r3 = b;
596
597     #include VECT_COMPARE_S
598   }
599 }
600
601 extern "C" __global__ void __launch_bounds__ (256, 1) m04400_m04 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
602 {
603   /**
604    * base
605    */
606
607   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
608
609   /**
610    * modifier
611    */
612
613   const u32 lid = threadIdx.x;
614
615
616   u32x w0[4];
617
618   w0[0] = pws[gid].i[ 0];
619   w0[1] = pws[gid].i[ 1];
620   w0[2] = pws[gid].i[ 2];
621   w0[3] = pws[gid].i[ 3];
622
623   u32x w1[4];
624
625   w1[0] = 0;
626   w1[1] = 0;
627   w1[2] = 0;
628   w1[3] = 0;
629
630   u32x w2[4];
631
632   w2[0] = 0;
633   w2[1] = 0;
634   w2[2] = 0;
635   w2[3] = 0;
636
637   u32x w3[4];
638
639   w3[0] = 0;
640   w3[1] = 0;
641   w3[2] = 0;
642   w3[3] = pws[gid].i[15];
643
644   const u32 pw_len = pws[gid].pw_len;
645
646   /**
647    * bin2asc table
648    */
649
650   l_bin2asc[lid] = c_bin2asc[(lid >> 0) & 15] << 8
651                  | c_bin2asc[(lid >> 4) & 15] << 0;
652
653   __syncthreads ();
654
655   if (gid >= gid_max) return;
656
657   /**
658    * main
659    */
660
661   m04400m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
662 }
663
664 extern "C" __global__ void __launch_bounds__ (256, 1) m04400_m08 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
665 {
666   /**
667    * base
668    */
669
670   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
671
672   /**
673    * modifier
674    */
675
676   const u32 lid = threadIdx.x;
677
678   u32x w0[4];
679
680   w0[0] = pws[gid].i[ 0];
681   w0[1] = pws[gid].i[ 1];
682   w0[2] = pws[gid].i[ 2];
683   w0[3] = pws[gid].i[ 3];
684
685   u32x w1[4];
686
687   w1[0] = pws[gid].i[ 4];
688   w1[1] = pws[gid].i[ 5];
689   w1[2] = pws[gid].i[ 6];
690   w1[3] = pws[gid].i[ 7];
691
692   u32x w2[4];
693
694   w2[0] = 0;
695   w2[1] = 0;
696   w2[2] = 0;
697   w2[3] = 0;
698
699   u32x w3[4];
700
701   w3[0] = 0;
702   w3[1] = 0;
703   w3[2] = 0;
704   w3[3] = pws[gid].i[15];
705
706   const u32 pw_len = pws[gid].pw_len;
707
708   /**
709    * bin2asc table
710    */
711
712   l_bin2asc[lid] = c_bin2asc[(lid >> 0) & 15] << 8
713                  | c_bin2asc[(lid >> 4) & 15] << 0;
714
715   __syncthreads ();
716
717   if (gid >= gid_max) return;
718
719   /**
720    * main
721    */
722
723   m04400m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
724 }
725
726 extern "C" __global__ void __launch_bounds__ (256, 1) m04400_m16 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
727 {
728   /**
729    * base
730    */
731
732   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
733
734   /**
735    * modifier
736    */
737
738   const u32 lid = threadIdx.x;
739
740   u32x w0[4];
741
742   w0[0] = pws[gid].i[ 0];
743   w0[1] = pws[gid].i[ 1];
744   w0[2] = pws[gid].i[ 2];
745   w0[3] = pws[gid].i[ 3];
746
747   u32x w1[4];
748
749   w1[0] = pws[gid].i[ 4];
750   w1[1] = pws[gid].i[ 5];
751   w1[2] = pws[gid].i[ 6];
752   w1[3] = pws[gid].i[ 7];
753
754   u32x w2[4];
755
756   w2[0] = pws[gid].i[ 8];
757   w2[1] = pws[gid].i[ 9];
758   w2[2] = pws[gid].i[10];
759   w2[3] = pws[gid].i[11];
760
761   u32x w3[4];
762
763   w3[0] = pws[gid].i[12];
764   w3[1] = pws[gid].i[13];
765   w3[2] = pws[gid].i[14];
766   w3[3] = pws[gid].i[15];
767
768   const u32 pw_len = pws[gid].pw_len;
769
770   /**
771    * bin2asc table
772    */
773
774   l_bin2asc[lid] = c_bin2asc[(lid >> 0) & 15] << 8
775                  | c_bin2asc[(lid >> 4) & 15] << 0;
776
777   __syncthreads ();
778
779   if (gid >= gid_max) return;
780
781   /**
782    * main
783    */
784
785   m04400m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
786 }
787
788 extern "C" __global__ void __launch_bounds__ (256, 1) m04400_s04 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
789 {
790   /**
791    * base
792    */
793
794   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
795
796   /**
797    * modifier
798    */
799
800   const u32 lid = threadIdx.x;
801
802   u32x w0[4];
803
804   w0[0] = pws[gid].i[ 0];
805   w0[1] = pws[gid].i[ 1];
806   w0[2] = pws[gid].i[ 2];
807   w0[3] = pws[gid].i[ 3];
808
809   u32x w1[4];
810
811   w1[0] = 0;
812   w1[1] = 0;
813   w1[2] = 0;
814   w1[3] = 0;
815
816   u32x w2[4];
817
818   w2[0] = 0;
819   w2[1] = 0;
820   w2[2] = 0;
821   w2[3] = 0;
822
823   u32x w3[4];
824
825   w3[0] = 0;
826   w3[1] = 0;
827   w3[2] = 0;
828   w3[3] = pws[gid].i[15];
829
830   const u32 pw_len = pws[gid].pw_len;
831
832   /**
833    * bin2asc table
834    */
835
836   l_bin2asc[lid] = c_bin2asc[(lid >> 0) & 15] << 8
837                  | c_bin2asc[(lid >> 4) & 15] << 0;
838
839   __syncthreads ();
840
841   if (gid >= gid_max) return;
842
843   /**
844    * main
845    */
846
847   m04400s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
848 }
849
850 extern "C" __global__ void __launch_bounds__ (256, 1) m04400_s08 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
851 {
852   /**
853    * base
854    */
855
856   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
857
858   /**
859    * modifier
860    */
861
862   const u32 lid = threadIdx.x;
863
864   u32x w0[4];
865
866   w0[0] = pws[gid].i[ 0];
867   w0[1] = pws[gid].i[ 1];
868   w0[2] = pws[gid].i[ 2];
869   w0[3] = pws[gid].i[ 3];
870
871   u32x w1[4];
872
873   w1[0] = pws[gid].i[ 4];
874   w1[1] = pws[gid].i[ 5];
875   w1[2] = pws[gid].i[ 6];
876   w1[3] = pws[gid].i[ 7];
877
878   u32x w2[4];
879
880   w2[0] = 0;
881   w2[1] = 0;
882   w2[2] = 0;
883   w2[3] = 0;
884
885   u32x w3[4];
886
887   w3[0] = 0;
888   w3[1] = 0;
889   w3[2] = 0;
890   w3[3] = pws[gid].i[15];
891
892   const u32 pw_len = pws[gid].pw_len;
893
894   /**
895    * bin2asc table
896    */
897
898   l_bin2asc[lid] = c_bin2asc[(lid >> 0) & 15] << 8
899                  | c_bin2asc[(lid >> 4) & 15] << 0;
900
901   __syncthreads ();
902
903   if (gid >= gid_max) return;
904
905   /**
906    * main
907    */
908
909   m04400s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
910 }
911
912 extern "C" __global__ void __launch_bounds__ (256, 1) m04400_s16 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
913 {
914   /**
915    * base
916    */
917
918   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
919
920   /**
921    * modifier
922    */
923
924   const u32 lid = threadIdx.x;
925
926   u32x w0[4];
927
928   w0[0] = pws[gid].i[ 0];
929   w0[1] = pws[gid].i[ 1];
930   w0[2] = pws[gid].i[ 2];
931   w0[3] = pws[gid].i[ 3];
932
933   u32x w1[4];
934
935   w1[0] = pws[gid].i[ 4];
936   w1[1] = pws[gid].i[ 5];
937   w1[2] = pws[gid].i[ 6];
938   w1[3] = pws[gid].i[ 7];
939
940   u32x w2[4];
941
942   w2[0] = pws[gid].i[ 8];
943   w2[1] = pws[gid].i[ 9];
944   w2[2] = pws[gid].i[10];
945   w2[3] = pws[gid].i[11];
946
947   u32x w3[4];
948
949   w3[0] = pws[gid].i[12];
950   w3[1] = pws[gid].i[13];
951   w3[2] = pws[gid].i[14];
952   w3[3] = pws[gid].i[15];
953
954   const u32 pw_len = pws[gid].pw_len;
955
956   /**
957    * bin2asc table
958    */
959
960   l_bin2asc[lid] = c_bin2asc[(lid >> 0) & 15] << 8
961                  | c_bin2asc[(lid >> 4) & 15] << 0;
962
963   __syncthreads ();
964
965   if (gid >= gid_max) return;
966
967   /**
968    * main
969    */
970
971   m04400s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
972 }