Replace the substring GPU to a more appropriate "device" or "kernel" substring depend...
[hashcat.git] / OpenCL / m04700_a3.cl
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _SHA1_MD5_
7
8 #include "include/constants.h"
9 #include "include/kernel_vendor.h"
10
11 #define DGST_R0 3
12 #define DGST_R1 4
13 #define DGST_R2 2
14 #define DGST_R3 1
15
16 #include "include/kernel_functions.c"
17 #undef _MD5_
18 #include "OpenCL/types_ocl.c"
19 #include "OpenCL/common.c"
20
21 #define COMPARE_S "OpenCL/check_single_comp4.c"
22 #define COMPARE_M "OpenCL/check_multi_comp4.c"
23
24 #define uint_to_hex_lower8_le(i) l_bin2asc[(i)]
25
26 static void m04700m (u32 w0[4], u32 w1[4], u32 w2[4], u32 w3[4], const u32 pw_len, __global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, __local u32 l_bin2asc[256])
27 {
28   /**
29    * modifier
30    */
31
32   const u32 gid = get_global_id (0);
33   const u32 lid = get_local_id (0);
34
35   /**
36    * loop
37    */
38
39   u32 w0l = w0[0];
40
41   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos++)
42   {
43     const u32 w0r = bfs_buf[il_pos].i;
44
45     w0[0] = w0l | w0r;
46
47     /**
48      * md5
49      */
50
51     u32 a = MD5M_A;
52     u32 b = MD5M_B;
53     u32 c = MD5M_C;
54     u32 d = MD5M_D;
55
56     MD5_STEP (MD5_Fo, a, b, c, d, w0[0], MD5C00, MD5S00);
57     MD5_STEP (MD5_Fo, d, a, b, c, w0[1], MD5C01, MD5S01);
58     MD5_STEP (MD5_Fo, c, d, a, b, w0[2], MD5C02, MD5S02);
59     MD5_STEP (MD5_Fo, b, c, d, a, w0[3], MD5C03, MD5S03);
60     MD5_STEP (MD5_Fo, a, b, c, d, w1[0], MD5C04, MD5S00);
61     MD5_STEP (MD5_Fo, d, a, b, c, w1[1], MD5C05, MD5S01);
62     MD5_STEP (MD5_Fo, c, d, a, b, w1[2], MD5C06, MD5S02);
63     MD5_STEP (MD5_Fo, b, c, d, a, w1[3], MD5C07, MD5S03);
64     MD5_STEP (MD5_Fo, a, b, c, d, w2[0], MD5C08, MD5S00);
65     MD5_STEP (MD5_Fo, d, a, b, c, w2[1], MD5C09, MD5S01);
66     MD5_STEP (MD5_Fo, c, d, a, b, w2[2], MD5C0a, MD5S02);
67     MD5_STEP (MD5_Fo, b, c, d, a, w2[3], MD5C0b, MD5S03);
68     MD5_STEP (MD5_Fo, a, b, c, d, w3[0], MD5C0c, MD5S00);
69     MD5_STEP (MD5_Fo, d, a, b, c, w3[1], MD5C0d, MD5S01);
70     MD5_STEP (MD5_Fo, c, d, a, b, w3[2], MD5C0e, MD5S02);
71     MD5_STEP (MD5_Fo, b, c, d, a, w3[3], MD5C0f, MD5S03);
72
73     MD5_STEP (MD5_Go, a, b, c, d, w0[1], MD5C10, MD5S10);
74     MD5_STEP (MD5_Go, d, a, b, c, w1[2], MD5C11, MD5S11);
75     MD5_STEP (MD5_Go, c, d, a, b, w2[3], MD5C12, MD5S12);
76     MD5_STEP (MD5_Go, b, c, d, a, w0[0], MD5C13, MD5S13);
77     MD5_STEP (MD5_Go, a, b, c, d, w1[1], MD5C14, MD5S10);
78     MD5_STEP (MD5_Go, d, a, b, c, w2[2], MD5C15, MD5S11);
79     MD5_STEP (MD5_Go, c, d, a, b, w3[3], MD5C16, MD5S12);
80     MD5_STEP (MD5_Go, b, c, d, a, w1[0], MD5C17, MD5S13);
81     MD5_STEP (MD5_Go, a, b, c, d, w2[1], MD5C18, MD5S10);
82     MD5_STEP (MD5_Go, d, a, b, c, w3[2], MD5C19, MD5S11);
83     MD5_STEP (MD5_Go, c, d, a, b, w0[3], MD5C1a, MD5S12);
84     MD5_STEP (MD5_Go, b, c, d, a, w2[0], MD5C1b, MD5S13);
85     MD5_STEP (MD5_Go, a, b, c, d, w3[1], MD5C1c, MD5S10);
86     MD5_STEP (MD5_Go, d, a, b, c, w0[2], MD5C1d, MD5S11);
87     MD5_STEP (MD5_Go, c, d, a, b, w1[3], MD5C1e, MD5S12);
88     MD5_STEP (MD5_Go, b, c, d, a, w3[0], MD5C1f, MD5S13);
89
90     MD5_STEP (MD5_H , a, b, c, d, w1[1], MD5C20, MD5S20);
91     MD5_STEP (MD5_H , d, a, b, c, w2[0], MD5C21, MD5S21);
92     MD5_STEP (MD5_H , c, d, a, b, w2[3], MD5C22, MD5S22);
93     MD5_STEP (MD5_H , b, c, d, a, w3[2], MD5C23, MD5S23);
94     MD5_STEP (MD5_H , a, b, c, d, w0[1], MD5C24, MD5S20);
95     MD5_STEP (MD5_H , d, a, b, c, w1[0], MD5C25, MD5S21);
96     MD5_STEP (MD5_H , c, d, a, b, w1[3], MD5C26, MD5S22);
97     MD5_STEP (MD5_H , b, c, d, a, w2[2], MD5C27, MD5S23);
98     MD5_STEP (MD5_H , a, b, c, d, w3[1], MD5C28, MD5S20);
99     MD5_STEP (MD5_H , d, a, b, c, w0[0], MD5C29, MD5S21);
100     MD5_STEP (MD5_H , c, d, a, b, w0[3], MD5C2a, MD5S22);
101     MD5_STEP (MD5_H , b, c, d, a, w1[2], MD5C2b, MD5S23);
102     MD5_STEP (MD5_H , a, b, c, d, w2[1], MD5C2c, MD5S20);
103     MD5_STEP (MD5_H , d, a, b, c, w3[0], MD5C2d, MD5S21);
104     MD5_STEP (MD5_H , c, d, a, b, w3[3], MD5C2e, MD5S22);
105     MD5_STEP (MD5_H , b, c, d, a, w0[2], MD5C2f, MD5S23);
106
107     MD5_STEP (MD5_I , a, b, c, d, w0[0], MD5C30, MD5S30);
108     MD5_STEP (MD5_I , d, a, b, c, w1[3], MD5C31, MD5S31);
109     MD5_STEP (MD5_I , c, d, a, b, w3[2], MD5C32, MD5S32);
110     MD5_STEP (MD5_I , b, c, d, a, w1[1], MD5C33, MD5S33);
111     MD5_STEP (MD5_I , a, b, c, d, w3[0], MD5C34, MD5S30);
112     MD5_STEP (MD5_I , d, a, b, c, w0[3], MD5C35, MD5S31);
113     MD5_STEP (MD5_I , c, d, a, b, w2[2], MD5C36, MD5S32);
114     MD5_STEP (MD5_I , b, c, d, a, w0[1], MD5C37, MD5S33);
115     MD5_STEP (MD5_I , a, b, c, d, w2[0], MD5C38, MD5S30);
116     MD5_STEP (MD5_I , d, a, b, c, w3[3], MD5C39, MD5S31);
117     MD5_STEP (MD5_I , c, d, a, b, w1[2], MD5C3a, MD5S32);
118     MD5_STEP (MD5_I , b, c, d, a, w3[1], MD5C3b, MD5S33);
119     MD5_STEP (MD5_I , a, b, c, d, w1[0], MD5C3c, MD5S30);
120     MD5_STEP (MD5_I , d, a, b, c, w2[3], MD5C3d, MD5S31);
121     MD5_STEP (MD5_I , c, d, a, b, w0[2], MD5C3e, MD5S32);
122     MD5_STEP (MD5_I , b, c, d, a, w2[1], MD5C3f, MD5S33);
123
124     a += MD5M_A;
125     b += MD5M_B;
126     c += MD5M_C;
127     d += MD5M_D;
128
129     /*
130      * sha1
131      */
132
133     u32 w0_t = uint_to_hex_lower8_le ((a >>  8) & 255) <<  0
134                | uint_to_hex_lower8_le ((a >>  0) & 255) << 16;
135     u32 w1_t = uint_to_hex_lower8_le ((a >> 24) & 255) <<  0
136                | uint_to_hex_lower8_le ((a >> 16) & 255) << 16;
137     u32 w2_t = uint_to_hex_lower8_le ((b >>  8) & 255) <<  0
138                | uint_to_hex_lower8_le ((b >>  0) & 255) << 16;
139     u32 w3_t = uint_to_hex_lower8_le ((b >> 24) & 255) <<  0
140                | uint_to_hex_lower8_le ((b >> 16) & 255) << 16;
141     u32 w4_t = uint_to_hex_lower8_le ((c >>  8) & 255) <<  0
142                | uint_to_hex_lower8_le ((c >>  0) & 255) << 16;
143     u32 w5_t = uint_to_hex_lower8_le ((c >> 24) & 255) <<  0
144                | uint_to_hex_lower8_le ((c >> 16) & 255) << 16;
145     u32 w6_t = uint_to_hex_lower8_le ((d >>  8) & 255) <<  0
146                | uint_to_hex_lower8_le ((d >>  0) & 255) << 16;
147     u32 w7_t = uint_to_hex_lower8_le ((d >> 24) & 255) <<  0
148                | uint_to_hex_lower8_le ((d >> 16) & 255) << 16;
149
150     u32 w8_t = 0x80000000;
151     u32 w9_t = 0;
152     u32 wa_t = 0;
153     u32 wb_t = 0;
154     u32 wc_t = 0;
155     u32 wd_t = 0;
156     u32 we_t = 0;
157     u32 wf_t = 32 * 8;
158
159     u32 e;
160
161     a = SHA1M_A;
162     b = SHA1M_B;
163     c = SHA1M_C;
164     d = SHA1M_D;
165     e = SHA1M_E;
166
167     #undef K
168     #define K SHA1C00
169
170     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t);
171     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t);
172     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w2_t);
173     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t);
174     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w4_t);
175     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w5_t);
176     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w6_t);
177     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w7_t);
178     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w8_t);
179     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w9_t);
180     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wa_t);
181     SHA1_STEP (SHA1_F0o, e, a, b, c, d, wb_t);
182     SHA1_STEP (SHA1_F0o, d, e, a, b, c, wc_t);
183     SHA1_STEP (SHA1_F0o, c, d, e, a, b, wd_t);
184     SHA1_STEP (SHA1_F0o, b, c, d, e, a, we_t);
185     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wf_t);
186     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t);
187     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t);
188     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t);
189     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t);
190
191     #undef K
192     #define K SHA1C01
193
194     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w4_t);
195     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w5_t);
196     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w6_t);
197     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w7_t);
198     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w8_t);
199     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w9_t);
200     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wa_t);
201     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wb_t);
202     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wc_t);
203     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wd_t);
204     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, we_t);
205     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wf_t);
206     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t);
207     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t);
208     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t);
209     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t);
210     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w4_t);
211     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w5_t);
212     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w6_t);
213     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w7_t);
214
215     #undef K
216     #define K SHA1C02
217
218     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w8_t);
219     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w9_t);
220     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wa_t);
221     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wb_t);
222     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wc_t);
223     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, wd_t);
224     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, we_t);
225     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wf_t);
226     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t);
227     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t);
228     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t);
229     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t);
230     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w4_t);
231     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w5_t);
232     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w6_t);
233     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w7_t);
234     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w8_t);
235     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w9_t);
236     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wa_t);
237     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wb_t);
238
239     #undef K
240     #define K SHA1C03
241
242     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wc_t);
243     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wd_t);
244     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, we_t);
245     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wf_t);
246     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t);
247     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t);
248     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t);
249     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t);
250     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w4_t);
251     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w5_t);
252     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w6_t);
253     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w7_t);
254     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w8_t);
255     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w9_t);
256     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wa_t);
257     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wb_t);
258     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wc_t);
259     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wd_t);
260     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, we_t);
261     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wf_t);
262
263     const u32 r0 = d;
264     const u32 r1 = e;
265     const u32 r2 = c;
266     const u32 r3 = b;
267
268     #include COMPARE_M
269   }
270 }
271
272 static void m04700s (u32 w0[4], u32 w1[4], u32 w2[4], u32 w3[4], const u32 pw_len, __global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, __local u32 l_bin2asc[256])
273 {
274   /**
275    * modifier
276    */
277
278   const u32 gid = get_global_id (0);
279   const u32 lid = get_local_id (0);
280
281   /**
282    * digest
283    */
284
285   const u32 search[4] =
286   {
287     digests_buf[digests_offset].digest_buf[DGST_R0],
288     digests_buf[digests_offset].digest_buf[DGST_R1],
289     digests_buf[digests_offset].digest_buf[DGST_R2],
290     digests_buf[digests_offset].digest_buf[DGST_R3]
291   };
292
293   /**
294    * reverse
295    */
296
297   const u32 e_rev = rotl32 (search[1], 2u);
298
299   /**
300    * loop
301    */
302
303   u32 w0l = w0[0];
304
305   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos++)
306   {
307     const u32 w0r = bfs_buf[il_pos].i;
308
309     w0[0] = w0l | w0r;
310
311     /**
312      * md5
313      */
314
315     u32 a = MD5M_A;
316     u32 b = MD5M_B;
317     u32 c = MD5M_C;
318     u32 d = MD5M_D;
319
320     MD5_STEP (MD5_Fo, a, b, c, d, w0[0], MD5C00, MD5S00);
321     MD5_STEP (MD5_Fo, d, a, b, c, w0[1], MD5C01, MD5S01);
322     MD5_STEP (MD5_Fo, c, d, a, b, w0[2], MD5C02, MD5S02);
323     MD5_STEP (MD5_Fo, b, c, d, a, w0[3], MD5C03, MD5S03);
324     MD5_STEP (MD5_Fo, a, b, c, d, w1[0], MD5C04, MD5S00);
325     MD5_STEP (MD5_Fo, d, a, b, c, w1[1], MD5C05, MD5S01);
326     MD5_STEP (MD5_Fo, c, d, a, b, w1[2], MD5C06, MD5S02);
327     MD5_STEP (MD5_Fo, b, c, d, a, w1[3], MD5C07, MD5S03);
328     MD5_STEP (MD5_Fo, a, b, c, d, w2[0], MD5C08, MD5S00);
329     MD5_STEP (MD5_Fo, d, a, b, c, w2[1], MD5C09, MD5S01);
330     MD5_STEP (MD5_Fo, c, d, a, b, w2[2], MD5C0a, MD5S02);
331     MD5_STEP (MD5_Fo, b, c, d, a, w2[3], MD5C0b, MD5S03);
332     MD5_STEP (MD5_Fo, a, b, c, d, w3[0], MD5C0c, MD5S00);
333     MD5_STEP (MD5_Fo, d, a, b, c, w3[1], MD5C0d, MD5S01);
334     MD5_STEP (MD5_Fo, c, d, a, b, w3[2], MD5C0e, MD5S02);
335     MD5_STEP (MD5_Fo, b, c, d, a, w3[3], MD5C0f, MD5S03);
336
337     MD5_STEP (MD5_Go, a, b, c, d, w0[1], MD5C10, MD5S10);
338     MD5_STEP (MD5_Go, d, a, b, c, w1[2], MD5C11, MD5S11);
339     MD5_STEP (MD5_Go, c, d, a, b, w2[3], MD5C12, MD5S12);
340     MD5_STEP (MD5_Go, b, c, d, a, w0[0], MD5C13, MD5S13);
341     MD5_STEP (MD5_Go, a, b, c, d, w1[1], MD5C14, MD5S10);
342     MD5_STEP (MD5_Go, d, a, b, c, w2[2], MD5C15, MD5S11);
343     MD5_STEP (MD5_Go, c, d, a, b, w3[3], MD5C16, MD5S12);
344     MD5_STEP (MD5_Go, b, c, d, a, w1[0], MD5C17, MD5S13);
345     MD5_STEP (MD5_Go, a, b, c, d, w2[1], MD5C18, MD5S10);
346     MD5_STEP (MD5_Go, d, a, b, c, w3[2], MD5C19, MD5S11);
347     MD5_STEP (MD5_Go, c, d, a, b, w0[3], MD5C1a, MD5S12);
348     MD5_STEP (MD5_Go, b, c, d, a, w2[0], MD5C1b, MD5S13);
349     MD5_STEP (MD5_Go, a, b, c, d, w3[1], MD5C1c, MD5S10);
350     MD5_STEP (MD5_Go, d, a, b, c, w0[2], MD5C1d, MD5S11);
351     MD5_STEP (MD5_Go, c, d, a, b, w1[3], MD5C1e, MD5S12);
352     MD5_STEP (MD5_Go, b, c, d, a, w3[0], MD5C1f, MD5S13);
353
354     MD5_STEP (MD5_H , a, b, c, d, w1[1], MD5C20, MD5S20);
355     MD5_STEP (MD5_H , d, a, b, c, w2[0], MD5C21, MD5S21);
356     MD5_STEP (MD5_H , c, d, a, b, w2[3], MD5C22, MD5S22);
357     MD5_STEP (MD5_H , b, c, d, a, w3[2], MD5C23, MD5S23);
358     MD5_STEP (MD5_H , a, b, c, d, w0[1], MD5C24, MD5S20);
359     MD5_STEP (MD5_H , d, a, b, c, w1[0], MD5C25, MD5S21);
360     MD5_STEP (MD5_H , c, d, a, b, w1[3], MD5C26, MD5S22);
361     MD5_STEP (MD5_H , b, c, d, a, w2[2], MD5C27, MD5S23);
362     MD5_STEP (MD5_H , a, b, c, d, w3[1], MD5C28, MD5S20);
363     MD5_STEP (MD5_H , d, a, b, c, w0[0], MD5C29, MD5S21);
364     MD5_STEP (MD5_H , c, d, a, b, w0[3], MD5C2a, MD5S22);
365     MD5_STEP (MD5_H , b, c, d, a, w1[2], MD5C2b, MD5S23);
366     MD5_STEP (MD5_H , a, b, c, d, w2[1], MD5C2c, MD5S20);
367     MD5_STEP (MD5_H , d, a, b, c, w3[0], MD5C2d, MD5S21);
368     MD5_STEP (MD5_H , c, d, a, b, w3[3], MD5C2e, MD5S22);
369     MD5_STEP (MD5_H , b, c, d, a, w0[2], MD5C2f, MD5S23);
370
371     MD5_STEP (MD5_I , a, b, c, d, w0[0], MD5C30, MD5S30);
372     MD5_STEP (MD5_I , d, a, b, c, w1[3], MD5C31, MD5S31);
373     MD5_STEP (MD5_I , c, d, a, b, w3[2], MD5C32, MD5S32);
374     MD5_STEP (MD5_I , b, c, d, a, w1[1], MD5C33, MD5S33);
375     MD5_STEP (MD5_I , a, b, c, d, w3[0], MD5C34, MD5S30);
376     MD5_STEP (MD5_I , d, a, b, c, w0[3], MD5C35, MD5S31);
377     MD5_STEP (MD5_I , c, d, a, b, w2[2], MD5C36, MD5S32);
378     MD5_STEP (MD5_I , b, c, d, a, w0[1], MD5C37, MD5S33);
379     MD5_STEP (MD5_I , a, b, c, d, w2[0], MD5C38, MD5S30);
380     MD5_STEP (MD5_I , d, a, b, c, w3[3], MD5C39, MD5S31);
381     MD5_STEP (MD5_I , c, d, a, b, w1[2], MD5C3a, MD5S32);
382     MD5_STEP (MD5_I , b, c, d, a, w3[1], MD5C3b, MD5S33);
383     MD5_STEP (MD5_I , a, b, c, d, w1[0], MD5C3c, MD5S30);
384     MD5_STEP (MD5_I , d, a, b, c, w2[3], MD5C3d, MD5S31);
385     MD5_STEP (MD5_I , c, d, a, b, w0[2], MD5C3e, MD5S32);
386     MD5_STEP (MD5_I , b, c, d, a, w2[1], MD5C3f, MD5S33);
387
388     a += MD5M_A;
389     b += MD5M_B;
390     c += MD5M_C;
391     d += MD5M_D;
392
393     /*
394      * sha1
395      */
396
397     u32 w0_t = uint_to_hex_lower8_le ((a >>  8) & 255) <<  0
398                | uint_to_hex_lower8_le ((a >>  0) & 255) << 16;
399     u32 w1_t = uint_to_hex_lower8_le ((a >> 24) & 255) <<  0
400                | uint_to_hex_lower8_le ((a >> 16) & 255) << 16;
401     u32 w2_t = uint_to_hex_lower8_le ((b >>  8) & 255) <<  0
402                | uint_to_hex_lower8_le ((b >>  0) & 255) << 16;
403     u32 w3_t = uint_to_hex_lower8_le ((b >> 24) & 255) <<  0
404                | uint_to_hex_lower8_le ((b >> 16) & 255) << 16;
405     u32 w4_t = uint_to_hex_lower8_le ((c >>  8) & 255) <<  0
406                | uint_to_hex_lower8_le ((c >>  0) & 255) << 16;
407     u32 w5_t = uint_to_hex_lower8_le ((c >> 24) & 255) <<  0
408                | uint_to_hex_lower8_le ((c >> 16) & 255) << 16;
409     u32 w6_t = uint_to_hex_lower8_le ((d >>  8) & 255) <<  0
410                | uint_to_hex_lower8_le ((d >>  0) & 255) << 16;
411     u32 w7_t = uint_to_hex_lower8_le ((d >> 24) & 255) <<  0
412                | uint_to_hex_lower8_le ((d >> 16) & 255) << 16;
413
414     u32 w8_t = 0x80000000;
415     u32 w9_t = 0;
416     u32 wa_t = 0;
417     u32 wb_t = 0;
418     u32 wc_t = 0;
419     u32 wd_t = 0;
420     u32 we_t = 0;
421     u32 wf_t = 32 * 8;
422
423     u32 e;
424
425     a = SHA1M_A;
426     b = SHA1M_B;
427     c = SHA1M_C;
428     d = SHA1M_D;
429     e = SHA1M_E;
430
431     #undef K
432     #define K SHA1C00
433
434     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t);
435     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t);
436     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w2_t);
437     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t);
438     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w4_t);
439     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w5_t);
440     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w6_t);
441     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w7_t);
442     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w8_t);
443     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w9_t);
444     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wa_t);
445     SHA1_STEP (SHA1_F0o, e, a, b, c, d, wb_t);
446     SHA1_STEP (SHA1_F0o, d, e, a, b, c, wc_t);
447     SHA1_STEP (SHA1_F0o, c, d, e, a, b, wd_t);
448     SHA1_STEP (SHA1_F0o, b, c, d, e, a, we_t);
449     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wf_t);
450     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t);
451     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t);
452     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t);
453     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t);
454
455     #undef K
456     #define K SHA1C01
457
458     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w4_t);
459     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w5_t);
460     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w6_t);
461     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w7_t);
462     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w8_t);
463     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w9_t);
464     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wa_t);
465     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wb_t);
466     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wc_t);
467     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wd_t);
468     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, we_t);
469     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wf_t);
470     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t);
471     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t);
472     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t);
473     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t);
474     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w4_t);
475     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w5_t);
476     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w6_t);
477     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w7_t);
478
479     #undef K
480     #define K SHA1C02
481
482     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w8_t);
483     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w9_t);
484     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wa_t);
485     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wb_t);
486     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wc_t);
487     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, wd_t);
488     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, we_t);
489     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wf_t);
490     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t);
491     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t);
492     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t);
493     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t);
494     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w4_t);
495     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w5_t);
496     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w6_t);
497     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w7_t);
498     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w8_t);
499     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w9_t);
500     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wa_t);
501     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wb_t);
502
503     #undef K
504     #define K SHA1C03
505
506     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wc_t);
507     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wd_t);
508     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, we_t);
509     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wf_t);
510     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t);
511     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t);
512     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t);
513     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t);
514     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w4_t);
515     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w5_t);
516     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w6_t);
517     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w7_t);
518     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w8_t);
519     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w9_t);
520     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wa_t);
521     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wb_t);
522
523     if (allx (e != e_rev)) continue;
524
525     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wc_t);
526     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wd_t);
527     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, we_t);
528     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wf_t);
529
530     const u32 r0 = d;
531     const u32 r1 = e;
532     const u32 r2 = c;
533     const u32 r3 = b;
534
535     #include COMPARE_S
536   }
537 }
538
539 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04700_m04 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
540 {
541   /**
542    * base
543    */
544
545   const u32 gid = get_global_id (0);
546
547   /**
548    * modifier
549    */
550
551   const u32 lid = get_local_id (0);
552
553
554   u32 w0[4];
555
556   w0[0] = pws[gid].i[ 0];
557   w0[1] = pws[gid].i[ 1];
558   w0[2] = pws[gid].i[ 2];
559   w0[3] = pws[gid].i[ 3];
560
561   u32 w1[4];
562
563   w1[0] = 0;
564   w1[1] = 0;
565   w1[2] = 0;
566   w1[3] = 0;
567
568   u32 w2[4];
569
570   w2[0] = 0;
571   w2[1] = 0;
572   w2[2] = 0;
573   w2[3] = 0;
574
575   u32 w3[4];
576
577   w3[0] = 0;
578   w3[1] = 0;
579   w3[2] = pws[gid].i[14];
580   w3[3] = 0;
581
582   const u32 pw_len = pws[gid].pw_len;
583
584   /**
585    * bin2asc table
586    */
587
588   __local u32 l_bin2asc[256];
589
590   const u32 lid4 = lid * 4;
591
592   const u32 lid40 = lid4 + 0;
593   const u32 lid41 = lid4 + 1;
594   const u32 lid42 = lid4 + 2;
595   const u32 lid43 = lid4 + 3;
596
597   const u32 v400 = (lid40 >> 0) & 15;
598   const u32 v401 = (lid40 >> 4) & 15;
599   const u32 v410 = (lid41 >> 0) & 15;
600   const u32 v411 = (lid41 >> 4) & 15;
601   const u32 v420 = (lid42 >> 0) & 15;
602   const u32 v421 = (lid42 >> 4) & 15;
603   const u32 v430 = (lid43 >> 0) & 15;
604   const u32 v431 = (lid43 >> 4) & 15;
605
606   l_bin2asc[lid40] = ((v400 < 10) ? '0' + v400 : 'a' - 10 + v400) << 0
607                    | ((v401 < 10) ? '0' + v401 : 'a' - 10 + v401) << 8;
608   l_bin2asc[lid41] = ((v410 < 10) ? '0' + v410 : 'a' - 10 + v410) << 0
609                    | ((v411 < 10) ? '0' + v411 : 'a' - 10 + v411) << 8;
610   l_bin2asc[lid42] = ((v420 < 10) ? '0' + v420 : 'a' - 10 + v420) << 0
611                    | ((v421 < 10) ? '0' + v421 : 'a' - 10 + v421) << 8;
612   l_bin2asc[lid43] = ((v430 < 10) ? '0' + v430 : 'a' - 10 + v430) << 0
613                    | ((v431 < 10) ? '0' + v431 : 'a' - 10 + v431) << 8;
614
615   barrier (CLK_LOCAL_MEM_FENCE);
616
617   if (gid >= gid_max) return;
618
619   /**
620    * main
621    */
622
623   m04700m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
624 }
625
626 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04700_m08 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
627 {
628   /**
629    * base
630    */
631
632   const u32 gid = get_global_id (0);
633
634   /**
635    * modifier
636    */
637
638   const u32 lid = get_local_id (0);
639
640   u32 w0[4];
641
642   w0[0] = pws[gid].i[ 0];
643   w0[1] = pws[gid].i[ 1];
644   w0[2] = pws[gid].i[ 2];
645   w0[3] = pws[gid].i[ 3];
646
647   u32 w1[4];
648
649   w1[0] = pws[gid].i[ 4];
650   w1[1] = pws[gid].i[ 5];
651   w1[2] = pws[gid].i[ 6];
652   w1[3] = pws[gid].i[ 7];
653
654   u32 w2[4];
655
656   w2[0] = 0;
657   w2[1] = 0;
658   w2[2] = 0;
659   w2[3] = 0;
660
661   u32 w3[4];
662
663   w3[0] = 0;
664   w3[1] = 0;
665   w3[2] = pws[gid].i[14];
666   w3[3] = 0;
667
668   const u32 pw_len = pws[gid].pw_len;
669
670   /**
671    * bin2asc table
672    */
673
674   __local u32 l_bin2asc[256];
675
676   const u32 lid4 = lid * 4;
677
678   const u32 lid40 = lid4 + 0;
679   const u32 lid41 = lid4 + 1;
680   const u32 lid42 = lid4 + 2;
681   const u32 lid43 = lid4 + 3;
682
683   const u32 v400 = (lid40 >> 0) & 15;
684   const u32 v401 = (lid40 >> 4) & 15;
685   const u32 v410 = (lid41 >> 0) & 15;
686   const u32 v411 = (lid41 >> 4) & 15;
687   const u32 v420 = (lid42 >> 0) & 15;
688   const u32 v421 = (lid42 >> 4) & 15;
689   const u32 v430 = (lid43 >> 0) & 15;
690   const u32 v431 = (lid43 >> 4) & 15;
691
692   l_bin2asc[lid40] = ((v400 < 10) ? '0' + v400 : 'a' - 10 + v400) << 0
693                    | ((v401 < 10) ? '0' + v401 : 'a' - 10 + v401) << 8;
694   l_bin2asc[lid41] = ((v410 < 10) ? '0' + v410 : 'a' - 10 + v410) << 0
695                    | ((v411 < 10) ? '0' + v411 : 'a' - 10 + v411) << 8;
696   l_bin2asc[lid42] = ((v420 < 10) ? '0' + v420 : 'a' - 10 + v420) << 0
697                    | ((v421 < 10) ? '0' + v421 : 'a' - 10 + v421) << 8;
698   l_bin2asc[lid43] = ((v430 < 10) ? '0' + v430 : 'a' - 10 + v430) << 0
699                    | ((v431 < 10) ? '0' + v431 : 'a' - 10 + v431) << 8;
700
701   barrier (CLK_LOCAL_MEM_FENCE);
702
703   if (gid >= gid_max) return;
704
705   /**
706    * main
707    */
708
709   m04700m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
710 }
711
712 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04700_m16 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
713 {
714   /**
715    * base
716    */
717
718   const u32 gid = get_global_id (0);
719
720   /**
721    * modifier
722    */
723
724   const u32 lid = get_local_id (0);
725
726   u32 w0[4];
727
728   w0[0] = pws[gid].i[ 0];
729   w0[1] = pws[gid].i[ 1];
730   w0[2] = pws[gid].i[ 2];
731   w0[3] = pws[gid].i[ 3];
732
733   u32 w1[4];
734
735   w1[0] = pws[gid].i[ 4];
736   w1[1] = pws[gid].i[ 5];
737   w1[2] = pws[gid].i[ 6];
738   w1[3] = pws[gid].i[ 7];
739
740   u32 w2[4];
741
742   w2[0] = pws[gid].i[ 8];
743   w2[1] = pws[gid].i[ 9];
744   w2[2] = pws[gid].i[10];
745   w2[3] = pws[gid].i[11];
746
747   u32 w3[4];
748
749   w3[0] = pws[gid].i[12];
750   w3[1] = pws[gid].i[13];
751   w3[2] = pws[gid].i[14];
752   w3[3] = pws[gid].i[15];
753
754   const u32 pw_len = pws[gid].pw_len;
755
756   /**
757    * bin2asc table
758    */
759
760   __local u32 l_bin2asc[256];
761
762   const u32 lid4 = lid * 4;
763
764   const u32 lid40 = lid4 + 0;
765   const u32 lid41 = lid4 + 1;
766   const u32 lid42 = lid4 + 2;
767   const u32 lid43 = lid4 + 3;
768
769   const u32 v400 = (lid40 >> 0) & 15;
770   const u32 v401 = (lid40 >> 4) & 15;
771   const u32 v410 = (lid41 >> 0) & 15;
772   const u32 v411 = (lid41 >> 4) & 15;
773   const u32 v420 = (lid42 >> 0) & 15;
774   const u32 v421 = (lid42 >> 4) & 15;
775   const u32 v430 = (lid43 >> 0) & 15;
776   const u32 v431 = (lid43 >> 4) & 15;
777
778   l_bin2asc[lid40] = ((v400 < 10) ? '0' + v400 : 'a' - 10 + v400) << 0
779                    | ((v401 < 10) ? '0' + v401 : 'a' - 10 + v401) << 8;
780   l_bin2asc[lid41] = ((v410 < 10) ? '0' + v410 : 'a' - 10 + v410) << 0
781                    | ((v411 < 10) ? '0' + v411 : 'a' - 10 + v411) << 8;
782   l_bin2asc[lid42] = ((v420 < 10) ? '0' + v420 : 'a' - 10 + v420) << 0
783                    | ((v421 < 10) ? '0' + v421 : 'a' - 10 + v421) << 8;
784   l_bin2asc[lid43] = ((v430 < 10) ? '0' + v430 : 'a' - 10 + v430) << 0
785                    | ((v431 < 10) ? '0' + v431 : 'a' - 10 + v431) << 8;
786
787   barrier (CLK_LOCAL_MEM_FENCE);
788
789   if (gid >= gid_max) return;
790
791   /**
792    * main
793    */
794
795   m04700m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
796 }
797
798 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04700_s04 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
799 {
800   /**
801    * base
802    */
803
804   const u32 gid = get_global_id (0);
805
806   /**
807    * modifier
808    */
809
810   const u32 lid = get_local_id (0);
811
812   u32 w0[4];
813
814   w0[0] = pws[gid].i[ 0];
815   w0[1] = pws[gid].i[ 1];
816   w0[2] = pws[gid].i[ 2];
817   w0[3] = pws[gid].i[ 3];
818
819   u32 w1[4];
820
821   w1[0] = 0;
822   w1[1] = 0;
823   w1[2] = 0;
824   w1[3] = 0;
825
826   u32 w2[4];
827
828   w2[0] = 0;
829   w2[1] = 0;
830   w2[2] = 0;
831   w2[3] = 0;
832
833   u32 w3[4];
834
835   w3[0] = 0;
836   w3[1] = 0;
837   w3[2] = pws[gid].i[14];
838   w3[3] = 0;
839
840   const u32 pw_len = pws[gid].pw_len;
841
842   /**
843    * bin2asc table
844    */
845
846   __local u32 l_bin2asc[256];
847
848   const u32 lid4 = lid * 4;
849
850   const u32 lid40 = lid4 + 0;
851   const u32 lid41 = lid4 + 1;
852   const u32 lid42 = lid4 + 2;
853   const u32 lid43 = lid4 + 3;
854
855   const u32 v400 = (lid40 >> 0) & 15;
856   const u32 v401 = (lid40 >> 4) & 15;
857   const u32 v410 = (lid41 >> 0) & 15;
858   const u32 v411 = (lid41 >> 4) & 15;
859   const u32 v420 = (lid42 >> 0) & 15;
860   const u32 v421 = (lid42 >> 4) & 15;
861   const u32 v430 = (lid43 >> 0) & 15;
862   const u32 v431 = (lid43 >> 4) & 15;
863
864   l_bin2asc[lid40] = ((v400 < 10) ? '0' + v400 : 'a' - 10 + v400) << 0
865                    | ((v401 < 10) ? '0' + v401 : 'a' - 10 + v401) << 8;
866   l_bin2asc[lid41] = ((v410 < 10) ? '0' + v410 : 'a' - 10 + v410) << 0
867                    | ((v411 < 10) ? '0' + v411 : 'a' - 10 + v411) << 8;
868   l_bin2asc[lid42] = ((v420 < 10) ? '0' + v420 : 'a' - 10 + v420) << 0
869                    | ((v421 < 10) ? '0' + v421 : 'a' - 10 + v421) << 8;
870   l_bin2asc[lid43] = ((v430 < 10) ? '0' + v430 : 'a' - 10 + v430) << 0
871                    | ((v431 < 10) ? '0' + v431 : 'a' - 10 + v431) << 8;
872
873   barrier (CLK_LOCAL_MEM_FENCE);
874
875   if (gid >= gid_max) return;
876
877   /**
878    * main
879    */
880
881   m04700s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
882 }
883
884 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04700_s08 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
885 {
886   /**
887    * base
888    */
889
890   const u32 gid = get_global_id (0);
891
892   /**
893    * modifier
894    */
895
896   const u32 lid = get_local_id (0);
897
898   u32 w0[4];
899
900   w0[0] = pws[gid].i[ 0];
901   w0[1] = pws[gid].i[ 1];
902   w0[2] = pws[gid].i[ 2];
903   w0[3] = pws[gid].i[ 3];
904
905   u32 w1[4];
906
907   w1[0] = pws[gid].i[ 4];
908   w1[1] = pws[gid].i[ 5];
909   w1[2] = pws[gid].i[ 6];
910   w1[3] = pws[gid].i[ 7];
911
912   u32 w2[4];
913
914   w2[0] = 0;
915   w2[1] = 0;
916   w2[2] = 0;
917   w2[3] = 0;
918
919   u32 w3[4];
920
921   w3[0] = 0;
922   w3[1] = 0;
923   w3[2] = pws[gid].i[14];
924   w3[3] = 0;
925
926   const u32 pw_len = pws[gid].pw_len;
927
928   /**
929    * bin2asc table
930    */
931
932   __local u32 l_bin2asc[256];
933
934   const u32 lid4 = lid * 4;
935
936   const u32 lid40 = lid4 + 0;
937   const u32 lid41 = lid4 + 1;
938   const u32 lid42 = lid4 + 2;
939   const u32 lid43 = lid4 + 3;
940
941   const u32 v400 = (lid40 >> 0) & 15;
942   const u32 v401 = (lid40 >> 4) & 15;
943   const u32 v410 = (lid41 >> 0) & 15;
944   const u32 v411 = (lid41 >> 4) & 15;
945   const u32 v420 = (lid42 >> 0) & 15;
946   const u32 v421 = (lid42 >> 4) & 15;
947   const u32 v430 = (lid43 >> 0) & 15;
948   const u32 v431 = (lid43 >> 4) & 15;
949
950   l_bin2asc[lid40] = ((v400 < 10) ? '0' + v400 : 'a' - 10 + v400) << 0
951                    | ((v401 < 10) ? '0' + v401 : 'a' - 10 + v401) << 8;
952   l_bin2asc[lid41] = ((v410 < 10) ? '0' + v410 : 'a' - 10 + v410) << 0
953                    | ((v411 < 10) ? '0' + v411 : 'a' - 10 + v411) << 8;
954   l_bin2asc[lid42] = ((v420 < 10) ? '0' + v420 : 'a' - 10 + v420) << 0
955                    | ((v421 < 10) ? '0' + v421 : 'a' - 10 + v421) << 8;
956   l_bin2asc[lid43] = ((v430 < 10) ? '0' + v430 : 'a' - 10 + v430) << 0
957                    | ((v431 < 10) ? '0' + v431 : 'a' - 10 + v431) << 8;
958
959   barrier (CLK_LOCAL_MEM_FENCE);
960
961   if (gid >= gid_max) return;
962
963   /**
964    * main
965    */
966
967   m04700s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
968 }
969
970 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04700_s16 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
971 {
972   /**
973    * base
974    */
975
976   const u32 gid = get_global_id (0);
977
978   /**
979    * modifier
980    */
981
982   const u32 lid = get_local_id (0);
983
984   u32 w0[4];
985
986   w0[0] = pws[gid].i[ 0];
987   w0[1] = pws[gid].i[ 1];
988   w0[2] = pws[gid].i[ 2];
989   w0[3] = pws[gid].i[ 3];
990
991   u32 w1[4];
992
993   w1[0] = pws[gid].i[ 4];
994   w1[1] = pws[gid].i[ 5];
995   w1[2] = pws[gid].i[ 6];
996   w1[3] = pws[gid].i[ 7];
997
998   u32 w2[4];
999
1000   w2[0] = pws[gid].i[ 8];
1001   w2[1] = pws[gid].i[ 9];
1002   w2[2] = pws[gid].i[10];
1003   w2[3] = pws[gid].i[11];
1004
1005   u32 w3[4];
1006
1007   w3[0] = pws[gid].i[12];
1008   w3[1] = pws[gid].i[13];
1009   w3[2] = pws[gid].i[14];
1010   w3[3] = pws[gid].i[15];
1011
1012   const u32 pw_len = pws[gid].pw_len;
1013
1014   /**
1015    * bin2asc table
1016    */
1017
1018   __local u32 l_bin2asc[256];
1019
1020   const u32 lid4 = lid * 4;
1021
1022   const u32 lid40 = lid4 + 0;
1023   const u32 lid41 = lid4 + 1;
1024   const u32 lid42 = lid4 + 2;
1025   const u32 lid43 = lid4 + 3;
1026
1027   const u32 v400 = (lid40 >> 0) & 15;
1028   const u32 v401 = (lid40 >> 4) & 15;
1029   const u32 v410 = (lid41 >> 0) & 15;
1030   const u32 v411 = (lid41 >> 4) & 15;
1031   const u32 v420 = (lid42 >> 0) & 15;
1032   const u32 v421 = (lid42 >> 4) & 15;
1033   const u32 v430 = (lid43 >> 0) & 15;
1034   const u32 v431 = (lid43 >> 4) & 15;
1035
1036   l_bin2asc[lid40] = ((v400 < 10) ? '0' + v400 : 'a' - 10 + v400) << 0
1037                    | ((v401 < 10) ? '0' + v401 : 'a' - 10 + v401) << 8;
1038   l_bin2asc[lid41] = ((v410 < 10) ? '0' + v410 : 'a' - 10 + v410) << 0
1039                    | ((v411 < 10) ? '0' + v411 : 'a' - 10 + v411) << 8;
1040   l_bin2asc[lid42] = ((v420 < 10) ? '0' + v420 : 'a' - 10 + v420) << 0
1041                    | ((v421 < 10) ? '0' + v421 : 'a' - 10 + v421) << 8;
1042   l_bin2asc[lid43] = ((v430 < 10) ? '0' + v430 : 'a' - 10 + v430) << 0
1043                    | ((v431 < 10) ? '0' + v431 : 'a' - 10 + v431) << 8;
1044
1045   barrier (CLK_LOCAL_MEM_FENCE);
1046
1047   if (gid >= gid_max) return;
1048
1049   /**
1050    * main
1051    */
1052
1053   m04700s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset, l_bin2asc);
1054 }