Merge pull request #146 from gm4tr1x/master
[hashcat.git] / OpenCL / m04700_a3.cl
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _SHA1_MD5_
7
8 #define NEW_SIMD_CODE
9
10 #include "include/constants.h"
11 #include "include/kernel_vendor.h"
12
13 #define DGST_R0 3
14 #define DGST_R1 4
15 #define DGST_R2 2
16 #define DGST_R3 1
17
18 #include "include/kernel_functions.c"
19 #undef _MD5_
20 #include "OpenCL/types_ocl.c"
21 #include "OpenCL/common.c"
22 #include "OpenCL/simd.c"
23
24 #if   VECT_SIZE == 1
25 #define uint_to_hex_lower8_le(i) (u32x) (l_bin2asc[(i)])
26 #elif VECT_SIZE == 2
27 #define uint_to_hex_lower8_le(i) (u32x) (l_bin2asc[(i).s0], l_bin2asc[(i).s1])
28 #elif VECT_SIZE == 4
29 #define uint_to_hex_lower8_le(i) (u32x) (l_bin2asc[(i).s0], l_bin2asc[(i).s1], l_bin2asc[(i).s2], l_bin2asc[(i).s3])
30 #elif VECT_SIZE == 8
31 #define uint_to_hex_lower8_le(i) (u32x) (l_bin2asc[(i).s0], l_bin2asc[(i).s1], l_bin2asc[(i).s2], l_bin2asc[(i).s3], l_bin2asc[(i).s4], l_bin2asc[(i).s5], l_bin2asc[(i).s6], l_bin2asc[(i).s7])
32 #endif
33
34 static void m04700m (u32 w0[4], u32 w1[4], u32 w2[4], u32 w3[4], const u32 pw_len, __global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, __local u32 l_bin2asc[256])
35 {
36   /**
37    * modifier
38    */
39
40   const u32 gid = get_global_id (0);
41   const u32 lid = get_local_id (0);
42
43   /**
44    * loop
45    */
46
47   u32 w0l = w0[0];
48
49   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos += VECT_SIZE)
50   {
51     const u32x w0r = w0r_create_bft (bfs_buf, il_pos);
52
53     const u32x w0lr = w0l | w0r;
54
55     u32x w0_t[4];
56
57     w0_t[0] = w0lr;
58     w0_t[1] = w0[1];
59     w0_t[2] = w0[2];
60     w0_t[3] = w0[3];
61
62     u32x w1_t[4];
63
64     w1_t[0] = w1[0];
65     w1_t[1] = w1[1];
66     w1_t[2] = w1[2];
67     w1_t[3] = w1[3];
68
69     u32x w2_t[4];
70
71     w2_t[0] = w2[0];
72     w2_t[1] = w2[1];
73     w2_t[2] = w2[2];
74     w2_t[3] = w2[3];
75
76     u32x w3_t[4];
77
78     w3_t[0] = w3[0];
79     w3_t[1] = w3[1];
80     w3_t[2] = w3[2];
81     w3_t[3] = w3[3];
82
83     /**
84      * md5
85      */
86
87     u32x a = MD5M_A;
88     u32x b = MD5M_B;
89     u32x c = MD5M_C;
90     u32x d = MD5M_D;
91
92     MD5_STEP (MD5_Fo, a, b, c, d, w0_t[0], MD5C00, MD5S00);
93     MD5_STEP (MD5_Fo, d, a, b, c, w0_t[1], MD5C01, MD5S01);
94     MD5_STEP (MD5_Fo, c, d, a, b, w0_t[2], MD5C02, MD5S02);
95     MD5_STEP (MD5_Fo, b, c, d, a, w0_t[3], MD5C03, MD5S03);
96     MD5_STEP (MD5_Fo, a, b, c, d, w1_t[0], MD5C04, MD5S00);
97     MD5_STEP (MD5_Fo, d, a, b, c, w1_t[1], MD5C05, MD5S01);
98     MD5_STEP (MD5_Fo, c, d, a, b, w1_t[2], MD5C06, MD5S02);
99     MD5_STEP (MD5_Fo, b, c, d, a, w1_t[3], MD5C07, MD5S03);
100     MD5_STEP (MD5_Fo, a, b, c, d, w2_t[0], MD5C08, MD5S00);
101     MD5_STEP (MD5_Fo, d, a, b, c, w2_t[1], MD5C09, MD5S01);
102     MD5_STEP (MD5_Fo, c, d, a, b, w2_t[2], MD5C0a, MD5S02);
103     MD5_STEP (MD5_Fo, b, c, d, a, w2_t[3], MD5C0b, MD5S03);
104     MD5_STEP (MD5_Fo, a, b, c, d, w3_t[0], MD5C0c, MD5S00);
105     MD5_STEP (MD5_Fo, d, a, b, c, w3_t[1], MD5C0d, MD5S01);
106     MD5_STEP (MD5_Fo, c, d, a, b, w3_t[2], MD5C0e, MD5S02);
107     MD5_STEP (MD5_Fo, b, c, d, a, w3_t[3], MD5C0f, MD5S03);
108
109     MD5_STEP (MD5_Go, a, b, c, d, w0_t[1], MD5C10, MD5S10);
110     MD5_STEP (MD5_Go, d, a, b, c, w1_t[2], MD5C11, MD5S11);
111     MD5_STEP (MD5_Go, c, d, a, b, w2_t[3], MD5C12, MD5S12);
112     MD5_STEP (MD5_Go, b, c, d, a, w0_t[0], MD5C13, MD5S13);
113     MD5_STEP (MD5_Go, a, b, c, d, w1_t[1], MD5C14, MD5S10);
114     MD5_STEP (MD5_Go, d, a, b, c, w2_t[2], MD5C15, MD5S11);
115     MD5_STEP (MD5_Go, c, d, a, b, w3_t[3], MD5C16, MD5S12);
116     MD5_STEP (MD5_Go, b, c, d, a, w1_t[0], MD5C17, MD5S13);
117     MD5_STEP (MD5_Go, a, b, c, d, w2_t[1], MD5C18, MD5S10);
118     MD5_STEP (MD5_Go, d, a, b, c, w3_t[2], MD5C19, MD5S11);
119     MD5_STEP (MD5_Go, c, d, a, b, w0_t[3], MD5C1a, MD5S12);
120     MD5_STEP (MD5_Go, b, c, d, a, w2_t[0], MD5C1b, MD5S13);
121     MD5_STEP (MD5_Go, a, b, c, d, w3_t[1], MD5C1c, MD5S10);
122     MD5_STEP (MD5_Go, d, a, b, c, w0_t[2], MD5C1d, MD5S11);
123     MD5_STEP (MD5_Go, c, d, a, b, w1_t[3], MD5C1e, MD5S12);
124     MD5_STEP (MD5_Go, b, c, d, a, w3_t[0], MD5C1f, MD5S13);
125
126     MD5_STEP (MD5_H , a, b, c, d, w1_t[1], MD5C20, MD5S20);
127     MD5_STEP (MD5_H , d, a, b, c, w2_t[0], MD5C21, MD5S21);
128     MD5_STEP (MD5_H , c, d, a, b, w2_t[3], MD5C22, MD5S22);
129     MD5_STEP (MD5_H , b, c, d, a, w3_t[2], MD5C23, MD5S23);
130     MD5_STEP (MD5_H , a, b, c, d, w0_t[1], MD5C24, MD5S20);
131     MD5_STEP (MD5_H , d, a, b, c, w1_t[0], MD5C25, MD5S21);
132     MD5_STEP (MD5_H , c, d, a, b, w1_t[3], MD5C26, MD5S22);
133     MD5_STEP (MD5_H , b, c, d, a, w2_t[2], MD5C27, MD5S23);
134     MD5_STEP (MD5_H , a, b, c, d, w3_t[1], MD5C28, MD5S20);
135     MD5_STEP (MD5_H , d, a, b, c, w0_t[0], MD5C29, MD5S21);
136     MD5_STEP (MD5_H , c, d, a, b, w0_t[3], MD5C2a, MD5S22);
137     MD5_STEP (MD5_H , b, c, d, a, w1_t[2], MD5C2b, MD5S23);
138     MD5_STEP (MD5_H , a, b, c, d, w2_t[1], MD5C2c, MD5S20);
139     MD5_STEP (MD5_H , d, a, b, c, w3_t[0], MD5C2d, MD5S21);
140     MD5_STEP (MD5_H , c, d, a, b, w3_t[3], MD5C2e, MD5S22);
141     MD5_STEP (MD5_H , b, c, d, a, w0_t[2], MD5C2f, MD5S23);
142
143     MD5_STEP (MD5_I , a, b, c, d, w0_t[0], MD5C30, MD5S30);
144     MD5_STEP (MD5_I , d, a, b, c, w1_t[3], MD5C31, MD5S31);
145     MD5_STEP (MD5_I , c, d, a, b, w3_t[2], MD5C32, MD5S32);
146     MD5_STEP (MD5_I , b, c, d, a, w1_t[1], MD5C33, MD5S33);
147     MD5_STEP (MD5_I , a, b, c, d, w3_t[0], MD5C34, MD5S30);
148     MD5_STEP (MD5_I , d, a, b, c, w0_t[3], MD5C35, MD5S31);
149     MD5_STEP (MD5_I , c, d, a, b, w2_t[2], MD5C36, MD5S32);
150     MD5_STEP (MD5_I , b, c, d, a, w0_t[1], MD5C37, MD5S33);
151     MD5_STEP (MD5_I , a, b, c, d, w2_t[0], MD5C38, MD5S30);
152     MD5_STEP (MD5_I , d, a, b, c, w3_t[3], MD5C39, MD5S31);
153     MD5_STEP (MD5_I , c, d, a, b, w1_t[2], MD5C3a, MD5S32);
154     MD5_STEP (MD5_I , b, c, d, a, w3_t[1], MD5C3b, MD5S33);
155     MD5_STEP (MD5_I , a, b, c, d, w1_t[0], MD5C3c, MD5S30);
156     MD5_STEP (MD5_I , d, a, b, c, w2_t[3], MD5C3d, MD5S31);
157     MD5_STEP (MD5_I , c, d, a, b, w0_t[2], MD5C3e, MD5S32);
158     MD5_STEP (MD5_I , b, c, d, a, w2_t[1], MD5C3f, MD5S33);
159
160     a += MD5M_A;
161     b += MD5M_B;
162     c += MD5M_C;
163     d += MD5M_D;
164
165     /*
166      * sha1
167      */
168
169     w0_t[0] = uint_to_hex_lower8_le ((a >>  8) & 255) <<  0
170             | uint_to_hex_lower8_le ((a >>  0) & 255) << 16;
171     w0_t[1] = uint_to_hex_lower8_le ((a >> 24) & 255) <<  0
172             | uint_to_hex_lower8_le ((a >> 16) & 255) << 16;
173     w0_t[2] = uint_to_hex_lower8_le ((b >>  8) & 255) <<  0
174             | uint_to_hex_lower8_le ((b >>  0) & 255) << 16;
175     w0_t[3] = uint_to_hex_lower8_le ((b >> 24) & 255) <<  0
176             | uint_to_hex_lower8_le ((b >> 16) & 255) << 16;
177     w1_t[0] = uint_to_hex_lower8_le ((c >>  8) & 255) <<  0
178             | uint_to_hex_lower8_le ((c >>  0) & 255) << 16;
179     w1_t[1] = uint_to_hex_lower8_le ((c >> 24) & 255) <<  0
180             | uint_to_hex_lower8_le ((c >> 16) & 255) << 16;
181     w1_t[2] = uint_to_hex_lower8_le ((d >>  8) & 255) <<  0
182             | uint_to_hex_lower8_le ((d >>  0) & 255) << 16;
183     w1_t[3] = uint_to_hex_lower8_le ((d >> 24) & 255) <<  0
184             | uint_to_hex_lower8_le ((d >> 16) & 255) << 16;
185
186     w2_t[0] = 0x80000000;
187     w2_t[1] = 0;
188     w2_t[2] = 0;
189     w2_t[3] = 0;
190
191     w3_t[0] = 0;
192     w3_t[1] = 0;
193     w3_t[2] = 0;
194     w3_t[3] = 32 * 8;
195
196     u32x e;
197
198     a = SHA1M_A;
199     b = SHA1M_B;
200     c = SHA1M_C;
201     d = SHA1M_D;
202     e = SHA1M_E;
203
204     #undef K
205     #define K SHA1C00
206
207     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t[0]);
208     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[1]);
209     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[2]);
210     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[3]);
211     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w1_t[0]);
212     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w1_t[1]);
213     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t[2]);
214     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t[3]);
215     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t[0]);
216     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w2_t[1]);
217     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w2_t[2]);
218     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w2_t[3]);
219     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w3_t[0]);
220     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t[1]);
221     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t[2]);
222     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w3_t[3]);
223     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[0]);
224     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[1]);
225     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[2]);
226     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w0_t[3]);
227
228     #undef K
229     #define K SHA1C01
230
231     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[0]);
232     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[1]);
233     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[2]);
234     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[3]);
235     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[0]);
236     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[1]);
237     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t[2]);
238     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[3]);
239     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[0]);
240     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[1]);
241     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[2]);
242     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[3]);
243     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[0]);
244     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w0_t[1]);
245     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[2]);
246     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[3]);
247     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[0]);
248     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[1]);
249     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[2]);
250     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[3]);
251
252     #undef K
253     #define K SHA1C02
254
255     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t[0]);
256     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[1]);
257     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[2]);
258     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[3]);
259     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w3_t[0]);
260     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w3_t[1]);
261     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t[2]);
262     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w3_t[3]);
263     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t[0]);
264     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w0_t[1]);
265     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w0_t[2]);
266     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w0_t[3]);
267     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w1_t[0]);
268     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w1_t[1]);
269     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t[2]);
270     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w1_t[3]);
271     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[0]);
272     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[1]);
273     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[2]);
274     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w2_t[3]);
275
276     #undef K
277     #define K SHA1C03
278
279     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[0]);
280     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[1]);
281     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[2]);
282     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[3]);
283     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[0]);
284     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[1]);
285     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w0_t[2]);
286     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[3]);
287     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[0]);
288     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[1]);
289     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[2]);
290     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[3]);
291     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[0]);
292     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w2_t[1]);
293     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[2]);
294     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[3]);
295     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[0]);
296     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[1]);
297     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[2]);
298     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[3]);
299
300     COMPARE_M_SIMD (d, e, c, b);
301   }
302 }
303
304 static void m04700s (u32 w0[4], u32 w1[4], u32 w2[4], u32 w3[4], const u32 pw_len, __global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, __local u32 l_bin2asc[256])
305 {
306   /**
307    * modifier
308    */
309
310   const u32 gid = get_global_id (0);
311   const u32 lid = get_local_id (0);
312
313   /**
314    * digest
315    */
316
317   const u32 search[4] =
318   {
319     digests_buf[digests_offset].digest_buf[DGST_R0],
320     digests_buf[digests_offset].digest_buf[DGST_R1],
321     digests_buf[digests_offset].digest_buf[DGST_R2],
322     digests_buf[digests_offset].digest_buf[DGST_R3]
323   };
324
325   /**
326    * reverse
327    */
328
329   const u32 e_rev = rotl32_S (search[1], 2u);
330
331   /**
332    * loop
333    */
334
335   u32 w0l = w0[0];
336
337   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos += VECT_SIZE)
338   {
339     const u32x w0r = w0r_create_bft (bfs_buf, il_pos);
340
341     const u32x w0lr = w0l | w0r;
342
343     u32x w0_t[4];
344
345     w0_t[0] = w0lr;
346     w0_t[1] = w0[1];
347     w0_t[2] = w0[2];
348     w0_t[3] = w0[3];
349
350     u32x w1_t[4];
351
352     w1_t[0] = w1[0];
353     w1_t[1] = w1[1];
354     w1_t[2] = w1[2];
355     w1_t[3] = w1[3];
356
357     u32x w2_t[4];
358
359     w2_t[0] = w2[0];
360     w2_t[1] = w2[1];
361     w2_t[2] = w2[2];
362     w2_t[3] = w2[3];
363
364     u32x w3_t[4];
365
366     w3_t[0] = w3[0];
367     w3_t[1] = w3[1];
368     w3_t[2] = w3[2];
369     w3_t[3] = w3[3];
370
371     /**
372      * md5
373      */
374
375     u32x a = MD5M_A;
376     u32x b = MD5M_B;
377     u32x c = MD5M_C;
378     u32x d = MD5M_D;
379
380     MD5_STEP (MD5_Fo, a, b, c, d, w0_t[0], MD5C00, MD5S00);
381     MD5_STEP (MD5_Fo, d, a, b, c, w0_t[1], MD5C01, MD5S01);
382     MD5_STEP (MD5_Fo, c, d, a, b, w0_t[2], MD5C02, MD5S02);
383     MD5_STEP (MD5_Fo, b, c, d, a, w0_t[3], MD5C03, MD5S03);
384     MD5_STEP (MD5_Fo, a, b, c, d, w1_t[0], MD5C04, MD5S00);
385     MD5_STEP (MD5_Fo, d, a, b, c, w1_t[1], MD5C05, MD5S01);
386     MD5_STEP (MD5_Fo, c, d, a, b, w1_t[2], MD5C06, MD5S02);
387     MD5_STEP (MD5_Fo, b, c, d, a, w1_t[3], MD5C07, MD5S03);
388     MD5_STEP (MD5_Fo, a, b, c, d, w2_t[0], MD5C08, MD5S00);
389     MD5_STEP (MD5_Fo, d, a, b, c, w2_t[1], MD5C09, MD5S01);
390     MD5_STEP (MD5_Fo, c, d, a, b, w2_t[2], MD5C0a, MD5S02);
391     MD5_STEP (MD5_Fo, b, c, d, a, w2_t[3], MD5C0b, MD5S03);
392     MD5_STEP (MD5_Fo, a, b, c, d, w3_t[0], MD5C0c, MD5S00);
393     MD5_STEP (MD5_Fo, d, a, b, c, w3_t[1], MD5C0d, MD5S01);
394     MD5_STEP (MD5_Fo, c, d, a, b, w3_t[2], MD5C0e, MD5S02);
395     MD5_STEP (MD5_Fo, b, c, d, a, w3_t[3], MD5C0f, MD5S03);
396
397     MD5_STEP (MD5_Go, a, b, c, d, w0_t[1], MD5C10, MD5S10);
398     MD5_STEP (MD5_Go, d, a, b, c, w1_t[2], MD5C11, MD5S11);
399     MD5_STEP (MD5_Go, c, d, a, b, w2_t[3], MD5C12, MD5S12);
400     MD5_STEP (MD5_Go, b, c, d, a, w0_t[0], MD5C13, MD5S13);
401     MD5_STEP (MD5_Go, a, b, c, d, w1_t[1], MD5C14, MD5S10);
402     MD5_STEP (MD5_Go, d, a, b, c, w2_t[2], MD5C15, MD5S11);
403     MD5_STEP (MD5_Go, c, d, a, b, w3_t[3], MD5C16, MD5S12);
404     MD5_STEP (MD5_Go, b, c, d, a, w1_t[0], MD5C17, MD5S13);
405     MD5_STEP (MD5_Go, a, b, c, d, w2_t[1], MD5C18, MD5S10);
406     MD5_STEP (MD5_Go, d, a, b, c, w3_t[2], MD5C19, MD5S11);
407     MD5_STEP (MD5_Go, c, d, a, b, w0_t[3], MD5C1a, MD5S12);
408     MD5_STEP (MD5_Go, b, c, d, a, w2_t[0], MD5C1b, MD5S13);
409     MD5_STEP (MD5_Go, a, b, c, d, w3_t[1], MD5C1c, MD5S10);
410     MD5_STEP (MD5_Go, d, a, b, c, w0_t[2], MD5C1d, MD5S11);
411     MD5_STEP (MD5_Go, c, d, a, b, w1_t[3], MD5C1e, MD5S12);
412     MD5_STEP (MD5_Go, b, c, d, a, w3_t[0], MD5C1f, MD5S13);
413
414     MD5_STEP (MD5_H , a, b, c, d, w1_t[1], MD5C20, MD5S20);
415     MD5_STEP (MD5_H , d, a, b, c, w2_t[0], MD5C21, MD5S21);
416     MD5_STEP (MD5_H , c, d, a, b, w2_t[3], MD5C22, MD5S22);
417     MD5_STEP (MD5_H , b, c, d, a, w3_t[2], MD5C23, MD5S23);
418     MD5_STEP (MD5_H , a, b, c, d, w0_t[1], MD5C24, MD5S20);
419     MD5_STEP (MD5_H , d, a, b, c, w1_t[0], MD5C25, MD5S21);
420     MD5_STEP (MD5_H , c, d, a, b, w1_t[3], MD5C26, MD5S22);
421     MD5_STEP (MD5_H , b, c, d, a, w2_t[2], MD5C27, MD5S23);
422     MD5_STEP (MD5_H , a, b, c, d, w3_t[1], MD5C28, MD5S20);
423     MD5_STEP (MD5_H , d, a, b, c, w0_t[0], MD5C29, MD5S21);
424     MD5_STEP (MD5_H , c, d, a, b, w0_t[3], MD5C2a, MD5S22);
425     MD5_STEP (MD5_H , b, c, d, a, w1_t[2], MD5C2b, MD5S23);
426     MD5_STEP (MD5_H , a, b, c, d, w2_t[1], MD5C2c, MD5S20);
427     MD5_STEP (MD5_H , d, a, b, c, w3_t[0], MD5C2d, MD5S21);
428     MD5_STEP (MD5_H , c, d, a, b, w3_t[3], MD5C2e, MD5S22);
429     MD5_STEP (MD5_H , b, c, d, a, w0_t[2], MD5C2f, MD5S23);
430
431     MD5_STEP (MD5_I , a, b, c, d, w0_t[0], MD5C30, MD5S30);
432     MD5_STEP (MD5_I , d, a, b, c, w1_t[3], MD5C31, MD5S31);
433     MD5_STEP (MD5_I , c, d, a, b, w3_t[2], MD5C32, MD5S32);
434     MD5_STEP (MD5_I , b, c, d, a, w1_t[1], MD5C33, MD5S33);
435     MD5_STEP (MD5_I , a, b, c, d, w3_t[0], MD5C34, MD5S30);
436     MD5_STEP (MD5_I , d, a, b, c, w0_t[3], MD5C35, MD5S31);
437     MD5_STEP (MD5_I , c, d, a, b, w2_t[2], MD5C36, MD5S32);
438     MD5_STEP (MD5_I , b, c, d, a, w0_t[1], MD5C37, MD5S33);
439     MD5_STEP (MD5_I , a, b, c, d, w2_t[0], MD5C38, MD5S30);
440     MD5_STEP (MD5_I , d, a, b, c, w3_t[3], MD5C39, MD5S31);
441     MD5_STEP (MD5_I , c, d, a, b, w1_t[2], MD5C3a, MD5S32);
442     MD5_STEP (MD5_I , b, c, d, a, w3_t[1], MD5C3b, MD5S33);
443     MD5_STEP (MD5_I , a, b, c, d, w1_t[0], MD5C3c, MD5S30);
444     MD5_STEP (MD5_I , d, a, b, c, w2_t[3], MD5C3d, MD5S31);
445     MD5_STEP (MD5_I , c, d, a, b, w0_t[2], MD5C3e, MD5S32);
446     MD5_STEP (MD5_I , b, c, d, a, w2_t[1], MD5C3f, MD5S33);
447
448     a += MD5M_A;
449     b += MD5M_B;
450     c += MD5M_C;
451     d += MD5M_D;
452
453     /*
454      * sha1
455      */
456
457     w0_t[0] = uint_to_hex_lower8_le ((a >>  8) & 255) <<  0
458             | uint_to_hex_lower8_le ((a >>  0) & 255) << 16;
459     w0_t[1] = uint_to_hex_lower8_le ((a >> 24) & 255) <<  0
460             | uint_to_hex_lower8_le ((a >> 16) & 255) << 16;
461     w0_t[2] = uint_to_hex_lower8_le ((b >>  8) & 255) <<  0
462             | uint_to_hex_lower8_le ((b >>  0) & 255) << 16;
463     w0_t[3] = uint_to_hex_lower8_le ((b >> 24) & 255) <<  0
464             | uint_to_hex_lower8_le ((b >> 16) & 255) << 16;
465     w1_t[0] = uint_to_hex_lower8_le ((c >>  8) & 255) <<  0
466             | uint_to_hex_lower8_le ((c >>  0) & 255) << 16;
467     w1_t[1] = uint_to_hex_lower8_le ((c >> 24) & 255) <<  0
468             | uint_to_hex_lower8_le ((c >> 16) & 255) << 16;
469     w1_t[2] = uint_to_hex_lower8_le ((d >>  8) & 255) <<  0
470             | uint_to_hex_lower8_le ((d >>  0) & 255) << 16;
471     w1_t[3] = uint_to_hex_lower8_le ((d >> 24) & 255) <<  0
472             | uint_to_hex_lower8_le ((d >> 16) & 255) << 16;
473
474     w2_t[0] = 0x80000000;
475     w2_t[1] = 0;
476     w2_t[2] = 0;
477     w2_t[3] = 0;
478
479     w3_t[0] = 0;
480     w3_t[1] = 0;
481     w3_t[2] = 0;
482     w3_t[3] = 32 * 8;
483
484     u32x e;
485
486     a = SHA1M_A;
487     b = SHA1M_B;
488     c = SHA1M_C;
489     d = SHA1M_D;
490     e = SHA1M_E;
491
492     #undef K
493     #define K SHA1C00
494
495     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t[0]);
496     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[1]);
497     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[2]);
498     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[3]);
499     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w1_t[0]);
500     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w1_t[1]);
501     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t[2]);
502     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t[3]);
503     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t[0]);
504     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w2_t[1]);
505     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w2_t[2]);
506     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w2_t[3]);
507     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w3_t[0]);
508     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t[1]);
509     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t[2]);
510     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w3_t[3]);
511     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[0]);
512     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[1]);
513     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[2]);
514     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w0_t[3]);
515
516     #undef K
517     #define K SHA1C01
518
519     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[0]);
520     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[1]);
521     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[2]);
522     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[3]);
523     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[0]);
524     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[1]);
525     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t[2]);
526     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[3]);
527     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[0]);
528     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[1]);
529     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[2]);
530     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[3]);
531     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[0]);
532     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w0_t[1]);
533     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[2]);
534     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[3]);
535     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[0]);
536     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[1]);
537     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[2]);
538     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[3]);
539
540     #undef K
541     #define K SHA1C02
542
543     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t[0]);
544     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[1]);
545     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[2]);
546     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[3]);
547     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w3_t[0]);
548     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w3_t[1]);
549     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t[2]);
550     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w3_t[3]);
551     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t[0]);
552     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w0_t[1]);
553     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w0_t[2]);
554     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w0_t[3]);
555     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w1_t[0]);
556     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w1_t[1]);
557     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t[2]);
558     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w1_t[3]);
559     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[0]);
560     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[1]);
561     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[2]);
562     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w2_t[3]);
563
564     #undef K
565     #define K SHA1C03
566
567     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[0]);
568     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[1]);
569     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[2]);
570     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[3]);
571     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[0]);
572     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[1]);
573     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w0_t[2]);
574     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[3]);
575     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[0]);
576     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[1]);
577     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[2]);
578     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[3]);
579     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[0]);
580     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w2_t[1]);
581     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[2]);
582     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[3]);
583
584     if (MATCHES_NONE_VS (e, e_rev)) continue;
585
586     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[0]);
587     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[1]);
588     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[2]);
589     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[3]);
590
591     COMPARE_S_SIMD (d, e, c, b);
592   }
593 }
594
595
596 __kernel void m04700_m04 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
597 {
598   /**
599    * base
600    */
601
602   const u32 gid = get_global_id (0);
603   const u32 lid = get_local_id (0);
604   const u32 lsz = get_local_size (0);
605
606   /**
607    * bin2asc table
608    */
609
610   __local u32 l_bin2asc[256];
611
612   for (u32 i = lid; i < 256; i += lsz)
613   {
614     const u32 i0 = (i >> 0) & 15;
615     const u32 i1 = (i >> 4) & 15;
616
617     l_bin2asc[i] = ((i0 < 10) ? '0' + i0 : 'a' - 10 + i0) << 0
618                  | ((i1 < 10) ? '0' + i1 : 'a' - 10 + i1) << 8;
619   }
620
621   barrier (CLK_LOCAL_MEM_FENCE);
622
623   if (gid >= gid_max) return;
624
625   /**
626    * modifier
627    */
628
629   u32 w0[4];
630
631   w0[0] = pws[gid].i[ 0];
632   w0[1] = pws[gid].i[ 1];
633   w0[2] = pws[gid].i[ 2];
634   w0[3] = pws[gid].i[ 3];
635
636   u32 w1[4];
637
638   w1[0] = 0;
639   w1[1] = 0;
640   w1[2] = 0;
641   w1[3] = 0;
642
643   u32 w2[4];
644
645   w2[0] = 0;
646   w2[1] = 0;
647   w2[2] = 0;
648   w2[3] = 0;
649
650   u32 w3[4];
651
652   w3[0] = 0;
653   w3[1] = 0;
654   w3[2] = pws[gid].i[14];
655   w3[3] = 0;
656
657   const u32 pw_len = pws[gid].pw_len;
658
659   /**
660    * main
661    */
662
663   m04700m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
664 }
665
666 __kernel void m04700_m08 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
667 {
668   /**
669    * base
670    */
671
672   const u32 gid = get_global_id (0);
673   const u32 lid = get_local_id (0);
674   const u32 lsz = get_local_size (0);
675
676   /**
677    * bin2asc table
678    */
679
680   __local u32 l_bin2asc[256];
681
682   for (u32 i = lid; i < 256; i += lsz)
683   {
684     const u32 i0 = (i >> 0) & 15;
685     const u32 i1 = (i >> 4) & 15;
686
687     l_bin2asc[i] = ((i0 < 10) ? '0' + i0 : 'a' - 10 + i0) << 0
688                  | ((i1 < 10) ? '0' + i1 : 'a' - 10 + i1) << 8;
689   }
690
691   barrier (CLK_LOCAL_MEM_FENCE);
692
693   if (gid >= gid_max) return;
694
695   /**
696    * modifier
697    */
698
699   u32 w0[4];
700
701   w0[0] = pws[gid].i[ 0];
702   w0[1] = pws[gid].i[ 1];
703   w0[2] = pws[gid].i[ 2];
704   w0[3] = pws[gid].i[ 3];
705
706   u32 w1[4];
707
708   w1[0] = pws[gid].i[ 4];
709   w1[1] = pws[gid].i[ 5];
710   w1[2] = pws[gid].i[ 6];
711   w1[3] = pws[gid].i[ 7];
712
713   u32 w2[4];
714
715   w2[0] = 0;
716   w2[1] = 0;
717   w2[2] = 0;
718   w2[3] = 0;
719
720   u32 w3[4];
721
722   w3[0] = 0;
723   w3[1] = 0;
724   w3[2] = pws[gid].i[14];
725   w3[3] = 0;
726
727   const u32 pw_len = pws[gid].pw_len;
728
729   /**
730    * main
731    */
732
733   m04700m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
734 }
735
736 __kernel void m04700_m16 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
737 {
738   /**
739    * base
740    */
741
742   const u32 gid = get_global_id (0);
743   const u32 lid = get_local_id (0);
744   const u32 lsz = get_local_size (0);
745
746   /**
747    * bin2asc table
748    */
749
750   __local u32 l_bin2asc[256];
751
752   for (u32 i = lid; i < 256; i += lsz)
753   {
754     const u32 i0 = (i >> 0) & 15;
755     const u32 i1 = (i >> 4) & 15;
756
757     l_bin2asc[i] = ((i0 < 10) ? '0' + i0 : 'a' - 10 + i0) << 0
758                  | ((i1 < 10) ? '0' + i1 : 'a' - 10 + i1) << 8;
759   }
760
761   barrier (CLK_LOCAL_MEM_FENCE);
762
763   if (gid >= gid_max) return;
764
765   /**
766    * modifier
767    */
768
769   u32 w0[4];
770
771   w0[0] = pws[gid].i[ 0];
772   w0[1] = pws[gid].i[ 1];
773   w0[2] = pws[gid].i[ 2];
774   w0[3] = pws[gid].i[ 3];
775
776   u32 w1[4];
777
778   w1[0] = pws[gid].i[ 4];
779   w1[1] = pws[gid].i[ 5];
780   w1[2] = pws[gid].i[ 6];
781   w1[3] = pws[gid].i[ 7];
782
783   u32 w2[4];
784
785   w2[0] = pws[gid].i[ 8];
786   w2[1] = pws[gid].i[ 9];
787   w2[2] = pws[gid].i[10];
788   w2[3] = pws[gid].i[11];
789
790   u32 w3[4];
791
792   w3[0] = pws[gid].i[12];
793   w3[1] = pws[gid].i[13];
794   w3[2] = pws[gid].i[14];
795   w3[3] = pws[gid].i[15];
796
797   const u32 pw_len = pws[gid].pw_len;
798
799   /**
800    * main
801    */
802
803   m04700m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
804 }
805
806 __kernel void m04700_s04 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
807 {
808   /**
809    * base
810    */
811
812   const u32 gid = get_global_id (0);
813   const u32 lid = get_local_id (0);
814   const u32 lsz = get_local_size (0);
815
816   /**
817    * bin2asc table
818    */
819
820   __local u32 l_bin2asc[256];
821
822   for (u32 i = lid; i < 256; i += lsz)
823   {
824     const u32 i0 = (i >> 0) & 15;
825     const u32 i1 = (i >> 4) & 15;
826
827     l_bin2asc[i] = ((i0 < 10) ? '0' + i0 : 'a' - 10 + i0) << 0
828                  | ((i1 < 10) ? '0' + i1 : 'a' - 10 + i1) << 8;
829   }
830
831   barrier (CLK_LOCAL_MEM_FENCE);
832
833   if (gid >= gid_max) return;
834
835   /**
836    * modifier
837    */
838
839   u32 w0[4];
840
841   w0[0] = pws[gid].i[ 0];
842   w0[1] = pws[gid].i[ 1];
843   w0[2] = pws[gid].i[ 2];
844   w0[3] = pws[gid].i[ 3];
845
846   u32 w1[4];
847
848   w1[0] = 0;
849   w1[1] = 0;
850   w1[2] = 0;
851   w1[3] = 0;
852
853   u32 w2[4];
854
855   w2[0] = 0;
856   w2[1] = 0;
857   w2[2] = 0;
858   w2[3] = 0;
859
860   u32 w3[4];
861
862   w3[0] = 0;
863   w3[1] = 0;
864   w3[2] = pws[gid].i[14];
865   w3[3] = 0;
866
867   const u32 pw_len = pws[gid].pw_len;
868
869   /**
870    * main
871    */
872
873   m04700s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
874 }
875
876 __kernel void m04700_s08 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
877 {
878   /**
879    * base
880    */
881
882   const u32 gid = get_global_id (0);
883   const u32 lid = get_local_id (0);
884   const u32 lsz = get_local_size (0);
885
886   /**
887    * bin2asc table
888    */
889
890   __local u32 l_bin2asc[256];
891
892   for (u32 i = lid; i < 256; i += lsz)
893   {
894     const u32 i0 = (i >> 0) & 15;
895     const u32 i1 = (i >> 4) & 15;
896
897     l_bin2asc[i] = ((i0 < 10) ? '0' + i0 : 'a' - 10 + i0) << 0
898                  | ((i1 < 10) ? '0' + i1 : 'a' - 10 + i1) << 8;
899   }
900
901   barrier (CLK_LOCAL_MEM_FENCE);
902
903   if (gid >= gid_max) return;
904
905   /**
906    * modifier
907    */
908
909   u32 w0[4];
910
911   w0[0] = pws[gid].i[ 0];
912   w0[1] = pws[gid].i[ 1];
913   w0[2] = pws[gid].i[ 2];
914   w0[3] = pws[gid].i[ 3];
915
916   u32 w1[4];
917
918   w1[0] = pws[gid].i[ 4];
919   w1[1] = pws[gid].i[ 5];
920   w1[2] = pws[gid].i[ 6];
921   w1[3] = pws[gid].i[ 7];
922
923   u32 w2[4];
924
925   w2[0] = 0;
926   w2[1] = 0;
927   w2[2] = 0;
928   w2[3] = 0;
929
930   u32 w3[4];
931
932   w3[0] = 0;
933   w3[1] = 0;
934   w3[2] = pws[gid].i[14];
935   w3[3] = 0;
936
937   const u32 pw_len = pws[gid].pw_len;
938
939   /**
940    * main
941    */
942
943   m04700s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
944 }
945
946 __kernel void m04700_s16 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
947 {
948   /**
949    * base
950    */
951
952   const u32 gid = get_global_id (0);
953   const u32 lid = get_local_id (0);
954   const u32 lsz = get_local_size (0);
955
956   /**
957    * bin2asc table
958    */
959
960   __local u32 l_bin2asc[256];
961
962   for (u32 i = lid; i < 256; i += lsz)
963   {
964     const u32 i0 = (i >> 0) & 15;
965     const u32 i1 = (i >> 4) & 15;
966
967     l_bin2asc[i] = ((i0 < 10) ? '0' + i0 : 'a' - 10 + i0) << 0
968                  | ((i1 < 10) ? '0' + i1 : 'a' - 10 + i1) << 8;
969   }
970
971   barrier (CLK_LOCAL_MEM_FENCE);
972
973   if (gid >= gid_max) return;
974
975   /**
976    * modifier
977    */
978
979   u32 w0[4];
980
981   w0[0] = pws[gid].i[ 0];
982   w0[1] = pws[gid].i[ 1];
983   w0[2] = pws[gid].i[ 2];
984   w0[3] = pws[gid].i[ 3];
985
986   u32 w1[4];
987
988   w1[0] = pws[gid].i[ 4];
989   w1[1] = pws[gid].i[ 5];
990   w1[2] = pws[gid].i[ 6];
991   w1[3] = pws[gid].i[ 7];
992
993   u32 w2[4];
994
995   w2[0] = pws[gid].i[ 8];
996   w2[1] = pws[gid].i[ 9];
997   w2[2] = pws[gid].i[10];
998   w2[3] = pws[gid].i[11];
999
1000   u32 w3[4];
1001
1002   w3[0] = pws[gid].i[12];
1003   w3[1] = pws[gid].i[13];
1004   w3[2] = pws[gid].i[14];
1005   w3[3] = pws[gid].i[15];
1006
1007   const u32 pw_len = pws[gid].pw_len;
1008
1009   /**
1010    * main
1011    */
1012
1013   m04700s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
1014 }