2009/2/11 Alexandre Julliard <span dir="ltr">&lt;<a href="mailto:julliard@winehq.org">julliard@winehq.org</a>&gt;</span><br><div class="gmail_quote"><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="Ih2E3d"><br>
</div>That&#39;s not a useful number, many files run a lot of tests, of which a<br>
huge majority always succeeds. Having a single failure among 10,000<br>
tests means that the test failed, and it&#39;s something bad that should be<br>
taken care of. Showing that as a 99.99% success would be very misleading.<font color="#888888"><a href="mailto:julliard@winehq.org"></a></font></blockquote><div><br>&nbsp;</div></div>i think what he means is a value for the whole run, not for each file... this way we get the number of failing files and failing tests for one run. i think that could be useful, at least it can show much more difference and give a better response to fixing tests than a file failure statistic.<br>
it would be a more changing rate.<br>