<div dir="ltr">Matt,<div><br></div><div>I agree with you about PWA. In fact, it is an empirical question whether the two approaches produce the same result. It is difficult for me to believe that there will be substantial systematic differences if you average over a wide enough region in photon energy. If you do it on a per-photon energy bin basis then the systematic differences will be large, but GlueX always averages over many bins in photon energy for these amplitude analyses.</div><div><br></div><div>But extracting absolute cross sections is a different matter. For example, the eta,p cross section in different decay modes of the eta. There the systematics could be large and uncontrolled using the best-chi2 method. Likewise with trying to measure an absolute differential cross section for the a2 over a continuum of rho,pi using amplitude analysis to extract the a2 part. The problem I am pointing to here is this: what to use for the flux is no longer model-independent if you are not doing proper accidentals subtraction.</div><div><br></div><div>-Richard J.</div><div><br></div><div>-rtj</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Feb 20, 2023 at 8:51 AM Shepherd, Matthew <<a href="mailto:mashephe@indiana.edu">mashephe@indiana.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">*Message sent from a system outside of UConn.*<br>
<br>
<br><br><br>---------- Forwarded message ----------<br>From: "Shepherd, Matthew" <<a href="mailto:mashephe@indiana.edu" target="_blank">mashephe@indiana.edu</a>><br>To: Richard Jones <<a href="mailto:richard.t.jones@uconn.edu" target="_blank">richard.t.jones@uconn.edu</a>><br>Cc: Hall D beam working group <<a href="mailto:halld-tagger@jlab.org" target="_blank">halld-tagger@jlab.org</a>><br>Bcc: <br>Date: Mon, 20 Feb 2023 13:48:37 +0000<br>Subject: Re: [Halld-tagger] [EXTERNAL] Fwd: Accidental subtraction<br><br>
Hi all,<br>
<br>
>From Peter:<br>
<br>
> My initial thought was that this is wrong and not recommended. Did the guidance by the beam line group change regarding this issue? Given that the current a2 cross-section analysis is using this method and there is a big push to publish it asap I am concerned that this might not be resolved properly and might set a bad precedent going forward.<br>
<br>
<br>
> On Feb 20, 2023, at 5:33 AM, Richard Jones via Halld-tagger <<a href="mailto:halld-tagger@jlab.org" target="_blank">halld-tagger@jlab.org</a>> wrote:<br>
> <br>
> In PWA, i understand that this avoids the pain of negative weights and so improves the statistical error from the fits (or at least it gives that feeling). In fact, it introduces a set of new systematic errors of its own that will probably drive us back to the more rigorous approach before we are done. For the moment I am not speaking up about this because we just need to get our first results out. But eventually this needs to be given a critical review.<br>
<br>
I'm not sure if Malte and Lawrence or Ryan are on this mailing list.  There has been quite a bit of discussion on this topic.  In the case of the eta pi0 analysis, at the early stages it shown that both methods produced the same result.  I believe Ryan has also checked this in the omega pi pi case (to obtain the pi1 limit) as well as a number of other cases. <br>
<br>
The issues Richard notes are certainly real.  I think the question is:  do they pose practical problems to the analysis?  Also, it is important to remember that efficiency in analysis and many other things is anchored to signal MC.  So, to make a mistake, one has to come up with problems that are not modeled in signal MC.  I believe our general experience is that once there are reasonable cuts made there are typically few events (few percent) with multiple combinations in the signal RF bin.  <br>
<br>
It is not so much about improving statistical error in the fit, it is about doing the analysis in a simpler way.  It is nice to look at plots where all the entries in a histogram have a weight of 1.  We had some early cases where I think people were making plots (perhaps with no chi^2 cut) and the subtractions were huge and they become invisible in the subsequent analysis.  It is a pain to maintain this other dimension in backgrounds throughout the analysis.<br>
<br>
I could be wrong, but my feeling is that the level of potential systematic error introduced by using the best chi^2 is at least an order of magnitude (if not more) below the other challenging systematic issues in amplitude analysis.  I'm not sure we will ever get to the stage where we care about it.  So for these analyses we should focus our brain cycles on the harder problems and do anything we can to make addressing those harder problems easier and more efficient.<br>
<br>
It would be good to keep all of these things in mind and keep a lookout for potential failure points of this simpler approach in the context of ongoing analyses, but I don't think I've seen one yet. <br>
<br>
Matt<br>
<br>
</blockquote></div>