Wenn Sie die leeren Datensätze aufbewahren, dann führt jeder Aufruf des Fragebogen-Links zu einem neuen Fall. Folgende Ausnahmen sind aber möglich:
1) Der Klick führt nicht direkt zum Fragebogen, sondern zu einem Anbieterseitigen Redirect, der dann erst zum Fragebgen weiterleitet. Wenn das der Fall ist, haben sich Bots womöglich nicht die Mühe gemacht, nach der Zählung dem Redirect zu folgen.
Diesen Fall kann man im "Netzwerk"-Karteireiter der Browsers-Developer-Tools nachvollziehen, wenn man auf einen Banner klickt.
2) Der Fragebogen zeigt zunächst eine Sprachauswahl. Dann wird erst gezählt, wenn auf eine Sprache geklickt wird.
3) Der Link verweist auf die Info-Seite zum Projekt, die man in den Projekt-Einstellungen konfigurieren kann, und die mit einem ?info
am Link aufgerufen wird. Dann gilt dasselbe wie bei der Sprachauswahl.
Wenn der Fragebogen über s2survey.net oder www.soscisurvey.de lief, können wir im Zweifelsfall die Server-Logfiles nach Fragebogen-Aufrufen filtern. Den Unterschied zwischen 160 und 1061 sollte man da schnell sehen.
Über die o.g. Fälle hinaus fällt mir spontan keine Erklärung für so eine Abweichung ein. Ich bin ziemlich sicher, dass SoSci Survey keine Fälle verliert. Natürlich besteht immer die Möglichkeit von Programmfehlern - aber würden 80% der Klicks fehlen, wäre das mit an Sicherheit grenzender Wahrscheinlichkeit im Test und auch in anderen Befragungsprojekten aufgefallen.
Denkbar sind natürlich auch Fehler dort, wo die Banner konfiguriert wurden. Etwa ein Fehler bei der Messung der Banner-Klicks (wurden womöglich Views gemessen?) oder dass jemand 5 Banner konfiguriert und bei 4 einen falschen Link hinterlegt hat.