311
wuerg, 07.05.2008 00:55
Zu jeder Zahl kann ermittelt werden, auf wieviele Arten sie als Summe aufeinanderfolgender Primzahlen geschrieben werden kann. Und es liegt die Frage auf der Hand, welche die kleinste Zahl zu einer vorgegebenen Anzahl von Zerlegungen ist. [1] So kann die 41 auf dreifache Art als Summe von Primzahlen in Folge geschrieben werden, nämlich als 3+5+7+11+13, als 11+13+17 und als 41 allein. Und 41 ist die kleinste Zahl mit dieser Eigenschaft. Für exakt 1, 2, 3, 4 und 5 Summanden erhält man als kleinste Summe 2, 5, 41, 1151 und 311:
Das ist zwar keine Eigenschaft mit irgendeinem praktischen Nutzen, dennoch aber eine von allgemeiner Bedeutung, daß sie Besuchern aus dem Weltraum zwar nicht geläufig, aber bekannt sein wird. Das unterscheidet von irdischen Beliebigkeiten: Der 311 als amerikanische Nicht-Notruf-Nummer im Gegensatz zur 911. Dem Anschlag in Madrid (3/11/2004) im Gegensatz zu dem in New York (9/11/2001). Oder der Verdreifachung des 11. Buchstabens K zu KKK, nicht für „Kinder, Küche, Kirche“ sondern für den Ku Klux Klan.
[1] The On-Line Encyclopedia of Integer Sequences. Anzahl der Zerlegungen A054845 einer Zahl und kleinste Zahl A054859 einer vorgegebenen Anzahl von Zerlegungen.
1 2 3 4 5 2 5 41 1151 311 2+3 11+13+17 379+383+389 101+103+107 2+3+5+7+11+13 223+227+229+233+239 53+59+61+67+71 7+11+13+...+89+97+101 31+37+41+43+47+53+59 11+13+17...+41+43+47Darunter ist die Zahl 311 deshalb bemerkenswert, weil sie mit fünf Zerlegungen deutlich kleiner ist als 1151 mit nur vieren.
Das ist zwar keine Eigenschaft mit irgendeinem praktischen Nutzen, dennoch aber eine von allgemeiner Bedeutung, daß sie Besuchern aus dem Weltraum zwar nicht geläufig, aber bekannt sein wird. Das unterscheidet von irdischen Beliebigkeiten: Der 311 als amerikanische Nicht-Notruf-Nummer im Gegensatz zur 911. Dem Anschlag in Madrid (3/11/2004) im Gegensatz zu dem in New York (9/11/2001). Oder der Verdreifachung des 11. Buchstabens K zu KKK, nicht für „Kinder, Küche, Kirche“ sondern für den Ku Klux Klan.
[1] The On-Line Encyclopedia of Integer Sequences. Anzahl der Zerlegungen A054845 einer Zahl und kleinste Zahl A054859 einer vorgegebenen Anzahl von Zerlegungen.
... comment
regenblau,
07.05.2008 22:09
Zahlenspielerei
Ich bin kein Mathematikgenie, nein das nicht. Aber sowas ist schön zu lesen.
... link
... comment
wuerg,
08.05.2008 01:05
Viele werden sich weigern, eine Summe aus nur einem Summanden als solche anzuerkennen. Nicht nur für sie gibt es natürlich auch eine Aufstellung [1] der kleinsten Zahlen mit einer vorgegebener Anzahl echter Zerlegungen [2]:
Anders steht es um die 41. Als Primzahl bleiben ihr von den drei Zerlegungen nur zwei echte. Dadurch erhalten kleinere Zahlen die Chance auf ebenfalls zwei, die als kleinste von der 36 wahrgenommen wird. Das gleiche Schicksal erleidet die 1151. Von den vier Zerlegungen bleiben drei echte. Aber das schafft die kleinere 240 auch.
[1] Wie auch im Hauptbeitrag ehemals als eine schöne Tabelle mit Umrandung. Doch eines Tages wurde aus welchem Grunde auch immer <table> einfach entfernt, sobald man nacheditierte.
[2] The On-Line Encyclopedia of Integer Sequences. Anzahl der echten Zerlegungen A084143 einer Zahl und kleinste Zahl A067376 einer vorgegebenen Anzahl von echten Zerlegungen.
1 2 3 4 5 5 36 240 311 16277 2+3 17+19 113+127 101+103+107 2297+2309+...+2339+2341 5+7+11+13 53+59+61+67 53+59+61+67+71 1451+1453+...+1499+1511 17+19+23+29+31+37+41+43 31+37+...+53+59 1231+1237+...+1303+1307 11+13+...+43+47 359+367+373+...+571+577 331+337+347+...+557+563Wieder ist 311 dabei, weil diese Primzahl ja gut auf ihre triviale Zerlegung verzichten kann. Sie hat dann zwar nur noch vier echte Zerlegungen statt fünf insgesamt, doch wissen wir bereits, daß alle Zahlen unterhalb von 311 maximal drei Zerlegungen haben, also keine vier und schon gar keine echten.
Anders steht es um die 41. Als Primzahl bleiben ihr von den drei Zerlegungen nur zwei echte. Dadurch erhalten kleinere Zahlen die Chance auf ebenfalls zwei, die als kleinste von der 36 wahrgenommen wird. Das gleiche Schicksal erleidet die 1151. Von den vier Zerlegungen bleiben drei echte. Aber das schafft die kleinere 240 auch.
[1] Wie auch im Hauptbeitrag ehemals als eine schöne Tabelle mit Umrandung. Doch eines Tages wurde aus welchem Grunde auch immer <table> einfach entfernt, sobald man nacheditierte.
[2] The On-Line Encyclopedia of Integer Sequences. Anzahl der echten Zerlegungen A084143 einer Zahl und kleinste Zahl A067376 einer vorgegebenen Anzahl von echten Zerlegungen.
... link
... comment
wuerg,
09.05.2008 21:31
Hier noch einmal eine Zusammenstellung der kleinsten Zahlen mit vorgegebener Anzahl von Zerlegungen:
Im Mittel sind die Zahlen in der rechten Spalte etwa dreimal so groß wie in der linken, und mit jeder Zeile wachsen sie ungefähr um den Faktor zehn. Ob das auf bei wesenlich größeren Trefferzahlen als 12 so bleibt, ist zu bezweifeln.
Daß gelegentlich nebeneinander zwei gleiche Zahlenstehen (218918) ist durchaus zu erwarten. Ist die kleinste Zahl mit genau n Zerlegungen nämlich zusammengesetzt, ist sie auch die kleinste mit genau n echten Zerlegungen. Ebenso normal sind zwei gleiche Zahlen längs der Diagonalen (5).
Wahrscheinlich gibt es in den unbekannten Tiefen der Fortsetzung der Tabelle noch eine zweite Zahl wie 311, deren Vorgänger (1151) sogar größer ist. Aber die ist dann sehr groß und interessiert eigentlich nicht mehr.
n | kleinste Zahl mit genau n Zerlegungen | |
alle Zerlegungen zählen | nur echte Zerlegungen zählen | |
1 | 2 | 5 |
2 | 5 | 36 |
3 | 41 | 240 |
4 | 1151 | 311 |
5 | 311 | 16277 |
6 | 34421 | 130638 |
7 | 218918 | 218918 |
8 | 3634531 | 9186778 |
9 | 48205429 | 556259425 |
10 | 1798467197 | 4611108324 |
11 | 12941709050 | 12941709050 |
12 | 166400805323 | |
Im Mittel sind die Zahlen in der rechten Spalte etwa dreimal so groß wie in der linken, und mit jeder Zeile wachsen sie ungefähr um den Faktor zehn. Ob das auf bei wesenlich größeren Trefferzahlen als 12 so bleibt, ist zu bezweifeln.
Daß gelegentlich nebeneinander zwei gleiche Zahlen
Wahrscheinlich gibt es in den unbekannten Tiefen der Fortsetzung der Tabelle noch eine zweite Zahl wie 311, deren Vor
... link
... comment
wuerg,
18.05.2008 00:54
Eine naheliegende Frage lautet: In welchen Maße wächst die kleinste Zahl mit der Anzahl der vorgegebenen Zerlegungen? Dazu habe ich einmal die Trefferdichte überschlagen. Um die Zahl n herum haben die Primzahlen einen mittleren Abstand von log(n), für die Summen zweier Primzahlen ist er 2log(n/2), für die aus dreien 3log(n/3) usw. Summiert man deren Kehrwerte, ergibt sich eine mit wachsendem n gegen log(2)=0,69 gehende Trefferdichte. Die Verhältnisse liegen weitgehend unabhängig von n wie folgt:
Zahl 10.000 und gibt die Treffer in Blöcken zu je 100 Zahlen wieder. Wenn dieses Diagramm und meine Berechnungen mich nicht täuschen, sollte die Wahrscheinlichkeit, daß die kleinste Zahl mit k Zerlegungen kleiner ist als die mit k-1 Zerlegungen etwa 1/k sein. Unterhalb von 12 liegt mit 311 bei k=5 die einzige solche Umkehr der Reihenfolge. Im Bereich von 12 bis 100 ist mit zwei weiteren zu rechnen. Vielleicht werden leistungsfähige Rechner in Haushalten von Spinnern bald eine davon finden.
Aber zurück zur Eingangsfrage, in welchem Maße die kleinsten Zahlen mit wachsender Trefferzahl größer werden. Die Tabelle
gibt die bekannten kleinsten Zahlen und daneben die zu erwartenden Abstände zwischen Zahlen mit der vorgegebenen Trefferzahl an, sofern die Gesamtdichte tatsächlich gegenlog(2)=0,69 tendiert. Die Tabelle und mein Diagramm legen einen etwas kleineren Wert nahe. Und so entstehen aus einer Antwort wieder einmal zwei Fragen: Führt genauere Rechnung auf weniger als log(2), und warum werden bei kleinen Zahlen Doppeltreffer bevorzugt, bleibt also die Zahl der Einzeltreffer deutlich hinter 35% zurück?
r = log(2) = 69% Trefferdichte p(0) = exp(-r) = 50% haben keine Zerlegung p(1) = r*p(0) = 35% haben eine Zerlegung p(2) = r*p(1)/2 = 12% haben zwei Zerlegungen p(3) = r*p(2)/3 = 3% haben drei ZerlegungenDas sind die Ergebnisse einer Überschlagsrechnung, die unberücksichtigt läßt, daß die Treffer nicht wirklich unabhängig fallen. Sie haben nämlich einen einigermaßen gleichbleibenden Abstand voneinander. Und vom Summanden 2 einmal abgesehen sind Summen mit gerader Summandenzahl immer gerade und mit ungerader Summandenzahl immer ungerade. Es ist deshalb nicht selbstverständlich, daß schon bei kleinen Zahlen die errechneten Werte sehr gut getroffen werden:
Das Diagramm erstreckt sich bis zur
Aber zurück zur Eingangsfrage, in welchem Maße die kleinsten Zahlen mit wachsender Trefferzahl größer werden. Die Tabelle
n | Zahlen mit genau n Zerlegungen | |
kleinste | alle wieviel | |
1 | 2 | 3 |
2 | 5 | 8 |
3 | 41 | 36 |
4 | 1.151 | 208 |
5 | 311 | 1.500 |
6 | 34.421 | 13.000 |
7 | 218.918 | 131.000 |
8 | 3.634.531 | 1.500.000 |
9 | 48.205.429 | 20.000.000 |
10 | 1.798.467.197 | 280.000.000 |
11 | 12.941.709.050 | 4.500.000.000 |
12 | 166.400.805.323 | 78.000.000.000 |
gibt die bekannten kleinsten Zahlen und daneben die zu erwartenden Abstände zwischen Zahlen mit der vorgegebenen Trefferzahl an, sofern die Gesamtdichte tatsächlich gegen
... link
... comment
dhonau,
23.05.2008 22:30
ich nenne ...
das prinzip der primzahlen
eine minimalisierung in der wiederholung und eine maximalisierung in der streuung von elementen abzählbar unendlicher welten (mengen)
ich habe mich mit primzahlen ein wenig beschäftigt
obige philosophische (arbeitshypo-)these ist mehr oder weniger intuitiver natur
eine minimalisierung in der wiederholung und eine maximalisierung in der streuung von elementen abzählbar unendlicher welten (mengen)
ich habe mich mit primzahlen ein wenig beschäftigt
obige philosophische (arbeitshypo-)these ist mehr oder weniger intuitiver natur
... link
wuerg,
24.05.2008 00:05
Eigentlich will ich mich gar nicht so sehr über Primzahlen auslassen, denn das wenige, was ich über sie weiß, kann man vielerorts genauer und besser beschrieben nachlesen. Aber mit der Zahl 311 habe ich mich etwas in den Primzahlsummen verfangen und muß nun eine Weile rechnen, bevor ich wieder davon lassen kann.
... link
... comment
wuerg,
24.05.2008 16:38
Die erste Schlußfrage meines vorangehenden Kommentares lautete: Warum bleibt die Trefferrate zumindest unterhalb von 10000 deutlich hinter log2=69% zurück und fällt sogar kontinuierlich ab?
Zur Antwort muß etwas genauer gerechnet werden. Gehe ich weiterhin davon aus, daß um die Zahl n herum die Summen aus i Primzahlen in Folge einen mittleren Abstand voni·log(n/i)) haben, ergibt sich eine Gesamttrefferquote von
Bis n=exp(exp(2)) um 1600 liegt s(n) oberhalb von log2=0,69 und fällt dann bis n=exp(exp(3)) um 500 Milliarden ganz langsam auf etwa 0,64 ab. Erst danach steigt s(n) wieder gegen die Zielwert log2=0,69. Das steht im Einklang mit dem Verlauf der von mir bis n=10000 gezählten Treffer.
Damit ist die Eingangsfrage einigermaßen beantwortet, und ich will diesmal nur eine Folgefrage erwähnen: Warum bleiben die ermittelten Werte hinter den errechneten zurück? Von 1001 bis 2000 zähle ich 676 Treffer, das sind 21 weniger alss(1500)=0,697 erwarten läßt. Von 8001 bis 9000 sind es 659 und damit 12 weniger. Die Abweichung scheint abzunehmen. Doch ist das wirklich der Fall? Ein mir bekanntes Ergebnis [1] spricht dagegen: Bis 260 Milliarden gibt es 5722 Neunfach-Treffer, was nach der Beziehung
von s=0,632 schließen läßt. Das sind im Tausenderblock immer noch 13 Treffer weniger als mit der Näherungsformel berechnet.
Und für den einen, der wirklich nachrechnet, sage ich es gleich: Die 2 aus dem Korrekturterm(2-loglogn)/logn ist von mir großzügig gerundet. Sie steht für c(n)+2log2, worin c(n) ausgleicht, was bei der Ersetzung der Summe durch ein Integral verschlappert wird. Naturgemäß liegt dieser Wert für große n in der Nähe der Euler-Mascheroni-Konstante [2]. Ich habe ihn großzügig mit 0,614 angesetzt, um auf 2 zu kommen.
[1] Primepuzzles
[2] γ=0,577...
Zur Antwort muß etwas genauer gerechnet werden. Gehe ich weiterhin davon aus, daß um die Zahl n herum die Summen aus i Primzahlen in Folge einen mittleren Abstand von
s(n) = 1/logn + 1/(2·log(n/2)) + ... + 1/(k·log(n/k))worin k so gewählt wird, daß die Summe der ersten k Primzahlen n ergibt. Das ist ungefähr bei
n = (k/2)logk oder n = 2√(n/logn)der Fall und führt letztlich auf die Näherung
s(n) = log2 + (2-loglogn)/logn
Damit ist die Eingangsfrage einigermaßen beantwortet, und ich will diesmal nur eine Folgefrage erwähnen: Warum bleiben die ermittelten Werte hinter den errechneten zurück? Von 1001 bis 2000 zähle ich 676 Treffer, das sind 21 weniger als
5722 / 260.000.000.000 = (s9/9!)e-sauf eine Trefferrate
Und für den einen, der wirklich nachrechnet, sage ich es gleich: Die 2 aus dem Korrekturterm
[1] Primepuzzles
[2] γ=0,577...
... link
... comment
wuerg,
31.05.2008 14:28
In meinem letzten Kommentar blieb ich eine Antwort auf die Frage schuldig, warum die wahre Trefferrate hinter der von mir errechneten um einige Prozente zurückbleibt. Neben falscher oder ungenauer Rechnerei, kommen mir zwei Ursachen in den Sinn. Zum einen fallen die Primzahlen und ihre Summen nicht zufällig. Zum anderen sind meine Ausgangsannahmen über ihre Dichte nicht hinreichend genau.
Für den mittleren Abstand der Zahlen aus i Summanden setzte ichiln(n/i) an, was von i gleichgroßen Summanden m=n/i ausgeht, in deren Nähe die Primzahlen den Abstand lnm aufweisen. Die unterschiedliche Größe der Summanden wirkt sich nur minimal und nach meinen Überlegungen auch in die andere Richtung aus.
Anders steht es um die wahre Dichte der Primzahlen [1]. Um 10.000 ist sie immer noch ein Prozent geringer als angesetzt. Doch im Bereich von 8001 bis 9000 sind zwei Prozent zu erklären. Dazu ist genauer hinzusehen: Bei n=8500 kommt man auf die maximale Summandenzahlk=2√(n/lnn)=61. Im Mittel sind es i=k/lnk=15, womit ein normaler Summand bei n/i=570 liegt, wo die Dichte der Primzahlen durchaus die angesetzte um zwei Prozent unterschreitet.
Liegt n im Milliardenbereich, bleibt von diesem Effekt nichts übrig. Es muß also einen anderen Grund haben, weshalb bis 260 Milliarden nur 5722 Neunfachtreffer gezählt wurden, was einer Trefferrate von 63,2 statt der vorhergesagten 64,5 Prozent entspräche. Die verwendete Formel setzt Zufälligkeit voraus, von der man nur bei geringen Trefferzahlen ausgehen darf. Zur Verdeutlichung habe ich einmal 7 Treffer in zehn Objekte durchgerechnet:
Die zweite Spalte zeigt einfach die Wahrscheinlichkeiten für i-fache Treffer, wenn in eine sehr große Zahl n von Objekten 0,7n mal völlig zufällig geschossen wird. In der dritten Spalte sind es nur n=10 Objekte und 7 Schuß. Naturgemäß sind Achtfachtreffer nicht mehr möglich und die Wahrscheinlichkeiten für hohe Trefferzahlen geringer. Auch die Überlebenschance (i=0) fällt etwas ab, während im Gegenzuge die Rate der Einzeltreffer steigt. Insgesamt ist der Effekt aber nicht berauschend, obwohl n=10 doch so klein ist.
Feuert man nicht zufällig, sondern in einer einzigen Salve 7 Schuß ab, so fallen auch 7 tot um. Die Wahrscheinlichkeit für 0 Treffer wäre 30 Prozent. Die Primzahlsummen bis zur Zahl n liegen ink=2√(n/lnn) Salven. Die vierte Spalte zeigt n=10 Objekte und k=3 Salven zu 3, 2 und 2 Schuß. Die Überlebensrate sinkt abermals, und mehr als dreimal kann keiner getroffen werden. Zum Ausgleich steigt die Zahl der Einzeltreffer erneut an.
Die Primzahlsalven weisen eine weitere Abweichung vom Zufall auf. Zwischen zwei Treffern liegt immer ein Mindestabstand, für den ich die Werte 2, 4 und 4 angesetzt und die Wahrscheinlichkeiten der fünften Spalte erhalten habe. Der Unterschied ist minimal, doch überraschend: Der Salveneffekt wird teilweise aufgehoben.
Kurz: Das Beispiel soll deutlich machen, daß die Rate der Neunfachtreffer bis 260 Milliarden möglicherweise nicht einfach berechnet werden kann, als würde völlig willkürlich 168 Milliarden mal hineingeschossen. Ihr Zurückbleiben um den Faktor zwei ist durchaus plausibel. Um dies letztlich zu bestätigen, müßte ich bis in den Milliardenbereich rechnen oder die Ergebnisse anderer einsehen.
Doch habe ich es mir einfacher gemacht und ein nur wenige Sekunden laufendes Programm geschrieben, das alle Treffer bis 1 Million ermittelt. Und schon ab 200.000 weichen diese Zahlen nur noch um weniger als ein Promille von den errechneten Werten ab. Es ist geradezu beängstigend, wie gleichmäßig und mit der Vorhersage im Einklang die wirklichen Anzahlen verlaufen.
[1] Mathworld
Für den mittleren Abstand der Zahlen aus i Summanden setzte ich
Anders steht es um die wahre Dichte der Primzahlen [1]. Um 10.000 ist sie immer noch ein Prozent geringer als angesetzt. Doch im Bereich von 8001 bis 9000 sind zwei Prozent zu erklären. Dazu ist genauer hinzusehen: Bei n=8500 kommt man auf die maximale Summandenzahl
Liegt n im Milliardenbereich, bleibt von diesem Effekt nichts übrig. Es muß also einen anderen Grund haben, weshalb bis 260 Milliarden nur 5722 Neunfachtreffer gezählt wurden, was einer Trefferrate von 63,2 statt der vorhergesagten 64,5 Prozent entspräche. Die verwendete Formel setzt Zufälligkeit voraus, von der man nur bei geringen Trefferzahlen ausgehen darf. Zur Verdeutlichung habe ich einmal 7 Treffer in zehn Objekte durchgerechnet:
Treffer | 70 Prozent | 7 aus 10 | in 3 Salven | mit Abstand |
0 | 49,6% | 47,8% | 44,8% | 45,8% |
1 | 34,8% | 37,2% | 41,6% | 40,9% |
2 | 12,2% | 12,4% | 12,4% | 12,5% |
3 | 2,84% | 2,30% | 1,20% | 1,36% |
4 | 0,50% | 0,26% | keine | keine |
5 | 0,07% | 0,02% | keine | keine |
6 | 81ppm | 6,3ppm | keine | keine |
7 | 8,1ppm | 0,1ppm | keine | keine |
8 | 0,7ppm | keine | keine | keine |
Die zweite Spalte zeigt einfach die Wahrscheinlichkeiten für i-fache Treffer, wenn in eine sehr große Zahl n von Objekten 0,7n mal völlig zufällig geschossen wird. In der dritten Spalte sind es nur n=10 Objekte und 7 Schuß. Naturgemäß sind Achtfachtreffer nicht mehr möglich und die Wahrscheinlichkeiten für hohe Trefferzahlen geringer. Auch die Überlebenschance (i=0) fällt etwas ab, während im Gegenzuge die Rate der Einzeltreffer steigt. Insgesamt ist der Effekt aber nicht berauschend, obwohl n=10 doch so klein ist.
Feuert man nicht zufällig, sondern in einer einzigen Salve 7 Schuß ab, so fallen auch 7 tot um. Die Wahrscheinlichkeit für 0 Treffer wäre 30 Prozent. Die Primzahlsummen bis zur Zahl n liegen in
Die Primzahlsalven weisen eine weitere Abweichung vom Zufall auf. Zwischen zwei Treffern liegt immer ein Mindestabstand, für den ich die Werte 2, 4 und 4 angesetzt und die Wahrscheinlichkeiten der fünften Spalte erhalten habe. Der Unterschied ist minimal, doch überraschend: Der Salveneffekt wird teilweise aufgehoben.
Kurz: Das Beispiel soll deutlich machen, daß die Rate der Neunfachtreffer bis 260 Milliarden möglicherweise nicht einfach berechnet werden kann, als würde völlig willkürlich 168 Milliarden mal hineingeschossen. Ihr Zurückbleiben um den Faktor zwei ist durchaus plausibel. Um dies letztlich zu bestätigen, müßte ich bis in den Milliardenbereich rechnen oder die Ergebnisse anderer einsehen.
Doch habe ich es mir einfacher gemacht und ein nur wenige Sekunden laufendes Programm geschrieben, das alle Treffer bis 1 Million ermittelt. Und schon ab 200.000 weichen diese Zahlen nur noch um weniger als ein Promille von den errechneten Werten ab. Es ist geradezu beängstigend, wie gleichmäßig und mit der Vorhersage im Einklang die wirklichen Anzahlen verlaufen.
[1] Mathworld
... link
... comment
wuerg,
23.06.2008 00:10
Aus einem vorangehenden Kommentar ist noch die Frage offen, warum im kleinzahligen Bereich die Anzahl der Einzeltreffer deutlich hinter der Erwartung zurückbleibt. So werden 680 Treffer im Bereich von 501 bis 1500 gezählt, was 344 bis 345 einfach getroffene Zahlen erwarten ließe. In Wirklichkeit sind es aber mit 306 deutlich weniger.
Die Tabelle zeigt in der zweiten Spalte die zu erwartenden Trefferzahlen, wenn 680 mal völlig zufällig in den Tausenderblock geschossen würde. Die wahren Werte stehen in Spalte drei. Die Abweichung muß darin begründet sein, daß die Primzahlen und ihre Summen eben doch nicht zufällig fallen, was sich im kleinzahligen Bereich deutlich bemerkbar macht.
Von der 2 abgesehen sind alle Primzahlen ungerade. Somit bilden gerade Summandenzahlen fast immer gerade und ungerade immer ungerade Summen. Naturgemäß werden die geraden Zahlen (g) nicht so häufig getroffen wie die ungeraden (u):n=1000 ist der Zu- bzw. Abschlag 0,1 in sehr guter Übereinstimmung mit den 292 geraden und den 388 ungeraden Treffern im Bereich von 501 bis 1500. Fielen sie in diesen beiden Zahlbereichen zufällig, so ergäben sich die Anteile der vierten Tabellenspalte. Das ist kein berauschender Effekt, der bei den Doppeltreffern nicht zufällig auch noch in die falsche Richtung weist.
Die nächste Idee könnte sein, auch noch die Primzahlen gesondert zu betrachten. Dazu ermittelt man die echten Trefferdichten auf allen Zahlen (r) und auf den ungeraden Zahlen (v).
Viel stärker ist ein anderer Zusammenhang: Die Summen dreier Primzahlen treffen gerne wieder auf solche. Weil alle Primzahlen vomTyp 6k±1 sind, trifft dies auch für dreiviertel aller Summen aus drei Primzahlen zu. Die Dreifachsummen treffen also dreimal häufiger eine Primzahl wie der reine Zufall. Sehr oft führt die Summe dreier Primzahlen so zu keinen Einzeltreffern, sondern macht aus einem einzelnen einen doppelten. Normalerweise ergibt das zwei Einzeltreffer weniger. Zum Ausgleich sind es ein Doppeltreffer und eine nicht getroffene Zahl mehr.
Im Bereich von 501 bis 1500 gibt es 144 Primzahlen und 57 Dreifachsummen. Es wären also nur 8 Doppeltreffer aus beiden zu erwarten. Tatsächlich sind es mit 22 fast dreimal soviele. Gehe ich von22-8=14 Doppeltreffern und Nichttreffern mehr sowie 14+14=28 Einfachtreffern weniger aus als der reine Zufall der Spalte zwei vorgibt, so komme ich auf die Wahrscheinlichkeiten sechsten Spalte.
Das erklärt den Löwenanteil der Differenz zwischen dem reinen Zufall und der Realität. Es kommen ähnliche Effekte hinzu, denen ich gerne den Rest zuschiebe. Sie genauer zu quantifizieren, erspare ich mir, denn diese Zusammenhänge sind nicht so wichtig wie eine Landung auf dem Mond, für dessen Bahnberechnung hunderte von Störungen zu berücksichtigen sind.
Treffer | Zufall | Realität | u und g | p, v, g | modulo 6 |
0 | 50,66% | 52,70% | 50,89% | 49,75% | 52,06% |
1 | 34,45% | 30,60% | 34,14% | 35,77% | 31,65% |
2 | 11,71% | 13,30% | 11,68% | 11,67% | 13,11% |
3 | 2,65% | 2,90% | 2,72% | 2,40% | 2,65% |
Die Tabelle zeigt in der zweiten Spalte die zu erwartenden Trefferzahlen, wenn 680 mal völlig zufällig in den Tausenderblock geschossen würde. Die wahren Werte stehen in Spalte drei. Die Abweichung muß darin begründet sein, daß die Primzahlen und ihre Summen eben doch nicht zufällig fallen, was sich im kleinzahligen Bereich deutlich bemerkbar macht.
Von der 2 abgesehen sind alle Primzahlen ungerade. Somit bilden gerade Summandenzahlen fast immer gerade und ungerade immer ungerade Summen. Naturgemäß werden die geraden Zahlen (g) nicht so häufig getroffen wie die ungeraden (u):
g(n) ≈ s(n) - ln2/lnn u(n) ≈ s(n) + ln2/lnnFür
Die nächste Idee könnte sein, auch noch die Primzahlen gesondert zu betrachten. Dazu ermittelt man die echten Trefferdichten auf allen Zahlen (r) und auf den ungeraden Zahlen (v).
r(n) ≈ s(n) - 1/lnn v(n) ≈ s(n) - (2-ln2)/lnnDie daraus resultierenden Quoten in Spalte fünf weisen in die falsche Richtung, was daran liegt, daß die Primzahlsalve explizit berücksichtigt wurde. Salven aber vermindern die Nichttreffer und die hohen Treffer.
Viel stärker ist ein anderer Zusammenhang: Die Summen dreier Primzahlen treffen gerne wieder auf solche. Weil alle Primzahlen vom
Im Bereich von 501 bis 1500 gibt es 144 Primzahlen und 57 Dreifachsummen. Es wären also nur 8 Doppeltreffer aus beiden zu erwarten. Tatsächlich sind es mit 22 fast dreimal soviele. Gehe ich von
Das erklärt den Löwenanteil der Differenz zwischen dem reinen Zufall und der Realität. Es kommen ähnliche Effekte hinzu, denen ich gerne den Rest zuschiebe. Sie genauer zu quantifizieren, erspare ich mir, denn diese Zusammenhänge sind nicht so wichtig wie eine Landung auf dem Mond, für dessen Bahnberechnung hunderte von Störungen zu berücksichtigen sind.
... link
... comment