<p>The problem with the current arrangement is that when machines pop in and out, any failures that are more likely on those machines also pop in and out, so error counts fluctuate, which obscures the smaller changes due to wine fixes or regressions.<br>

I like the current output, and don&#39;t want to change it; I just want to add another view for people who want to judge progress.</p>
<p>Setting up a view with a fixed set of machines would do, too.  Which is easier?<br>
  </p>
<p><blockquote>On Apr 9, 2009 12:12 PM, &quot;Alexandre Julliard&quot; &lt;<a href="mailto:julliard@winehq.org">julliard@winehq.org</a>&gt; wrote:<br><br><p><font color="#500050">Dan Kegel &lt;<a href="mailto:dank@kegel.com">dank@kegel.com</a>&gt; writes:

&gt; On Thu, Apr 9, 2009 at 10:17 AM, Alexandre Julliard &lt;julliard@...</font></p>I don&#39;t see the point. If you want statistics for a specific machine,<br>
sure, we could generate a page for that. But the global index should<br>
show all the results we have. If it shows too many failures it means the<br>
tests are not robust enough across machines and should be fixed, not<br>
ignored.<br>
<font color="#888888"><br>
--<br>
</font><p><font color="#500050">Alexandre Julliard
<a href="mailto:julliard@winehq.org">julliard@winehq.org</a>
</font></p></blockquote></p>