Чесна скала, папір, ножиці


58

Багато людей вважають RPS грою на випадок. Якщо обидва гравці грають непередбачувано, найкраща стратегія - грати випадковим чином. Однак введемо до цього трохи передбачуваності.

Кожен бот матиме можливість сказати іншому боту, що він буде грати одночасно. Потім настає пауза, в якій кожен бот буде знати, що оголосив інший гравець. Якщо він зіграє цю зброю, він оголосив, що набере один бал на додаток до очок за програш для виграшу чи нічиї.

Виграш коштує два очки, нічия, один бал, а програш - 0 балів.

     Honest Bot       Dishonest
Win     3                  2
Draw    2                  1
Loss    1                  0

У ваших інтересах бути чесним (але також стежити, щоб ваш опонент не вірив вам).

Матчі будуть грати у форматі круглої робіни, а мета полягатиме в тому, щоб максимально збільшити свій власний бал у матчах, які ви граєте.

Формат вводу / виводу:

  • Ваш бот буде функцією Python 2.7, який бере 4 аргументи, і повинен мати унікальне ім’я (яке буде використовуватися для представлення вашої подачі).
  • Перші два аргументи завжди будуть в порядку: минулий хід супротивника, а потім ваші минулі кроки. Це буде список у порядку від першого до останнього раунду, кожен індекс, що містить список із кроком, який супротивник стверджував, що здійснить, з подальшим кроком, який він фактично зробив.
  • Наступні два аргументи дозволять вашому боту визначити, чи це "чесний" раунд чи "справжній" раунд. Якщо це "чесний" раунд, вони обидва будуть "Ніхто". Якщо це "справжній" раунд, вони будуть, для того, рухатися вашим опонентом, який заявив, що зробить, після чого слід рухатися, який ви заявили, що зробите.
  • Усі аргументи або частини аргументів, які представляють рухи, використовуватимуть "R", "P" і "S" для представлення відповідно скелі, паперу та ножиць.
  • Ваша функція повинна повертати або "R" для скелі, "P" для паперу, або "S" для ножиць. Боти, які мають можливість повернути інші значення, будуть дискваліфіковані.
  • Кожен бот буде працювати проти кожного іншого бота 200 разів, а сам 100 разів. Мета - бути ботом з найбільшою кількістю очок в кінці змагань.
  • Що стосується обговорення в коментарях, матеріали не можуть читати з будь-якого файлу чи писати його, або яким-небудь чином саботажу чи зчитування коду опонента.

Приклади:

Це чотири приклади ботів, які я швидко склав. Вони приєднаються до змагань як додаткові боти. Якщо ви програєте до останнього, вам належить виконати певну роботу.

def honestpaper(I,dont,care,about_these):
    return "P"

def honestrock(I,dont,care,about_these):
    return "R"

def honestscissors(I,dont,care,about_these):
    return "S"

import random
def randombot(I,dont,care,about_these):
    return random.choice(["R","P","S"])

Контролер:

А ось контролер, яким я буду користуватися. Нові матеріали будуть імпортовані на початку та додані до словника bot_map.

from honestrock import honestrock
from honestpaper import honestpaper
from honestscissors import honestscissors
from randombot import randombot

bot_map = {
  0:honestrock, 1:honestpaper, 2:honestscissors, 3:randombot
}

player_num=len(bot_map)

def real(history1,history2,number,honest1,honest2):
    return bot_map[number](history1,history2,honest1,honest2)

def honest(history1,history2,number):
    return bot_map[number](history1,history2,None,None)

def play_match(num1,num2):
    history1=[]
    history2=[]
    score1=0
    score2=0
    for x in range(250):
        h1=honest(history2,history1,num1)
        h2=honest(history1,history2,num2)
        r1=real(history2,history1,num1,h2,h1)
        r2=real(history1,history2,num2,h1,h2)

        if h1==r1: score1+=1
        if h2==r2: score2+=1

        if r1==r2: score1+=1; score2+=1
        elif r1=="R":
            if r2=="P": score2+=2
            else: score1+=2
        elif r1=="P":
            if r2=="S": score2+=2
            else: score1+=2
        else:
            if r2=="R": score2+=2
            else: score1+=2

        history1.append([h1,r1])
        history2.append([h2,r2])
    return score1,score2

scores = []
for x in range(player_num):
    scores.append(0)

for _ in range(100):

    for x in range(player_num):
        for y in range(player_num):
            scorex,scorey=play_match(x,y)
            scores[x]+=scorex
            scores[y]+=scorey

for score in scores:
    print score

Підсумкові бали:

csbot                    3430397
thompson                 3410414
rlbot                    3340373
have_we_been_here_before 3270133
mason                    3227817
deepthought              3019363
adaptive_bot             2957506
THEbot                   2810535
dontlietome              2752984
irememberhowyoulie       2683508
learningbot4             2678388
betrayal                 2635901
averager                 2593368
honestrandom             2580764
twothirds                2568620
mirrorbot                2539016
tit4tat                  2537981
honestscissors           2486401
trusting_bot             2466662
rotate_scissors          2456069
rotate_paper             2455038
rotate_rock              2454999
honestpaper              2412600
honestrock               2361196
rockBot                  2283604
trustingRandom           2266456
user5957401bot           2250887
randombot                2065943
Dx                       1622238
liarliar                 1532558
everybodylies            1452785

1
Який статус?
user1502040

Відповіді:


11

Мейсон

Намагається забрати інформацію про інших ботів, таких як, наскільки вони чесні та як вони вплинули на мій перший крок. Потім я намагаюся знайти інших очевидних ботів, які слідують за шаблоном і використовують їх, щоб дати мені більше балів. Нарешті, у Мейсона є таємна зброя: знання про таємне товариство, де обидва боти, які беруть участь взаємно, йдуть на повний розіграш, набираючи по 500 балів кожен. На жаль, секрет швидше ... Добре секрет і змінюється щоразу, коли це робить Мейсон.

def mason(op_hist, my_hist, op_move, my_move):
    win_map = {"R": "P", "P": "S", "S": "R"}
    lose_map = {"R": "S", "P": "R", "S": "P"}
    if not len(op_hist):
        return "S"
    if op_hist[0] == ['S', 'S']:
        code = "S" + "".join("RPS"[ord(i) % 3] if isinstance(i, str) else "RPS"[i % 3] for i in __import__("sys")._getframe().f_code.co_code)[1::2]
        honest, guess = zip(*op_hist)
        if honest == guess == tuple(code[:len(op_hist)]):
            return code[len(op_hist)]
    op_honesty = sum(len(set(round))-1 for round in op_hist) / float(len(op_hist))
    if not my_move:
        moves = "".join(i[1] for i in op_hist)
        # Identify rotators
        if "PSRPSR" in moves:
            return moves[-2]
        # Identify consecutive moves
        if "RRRRR" in moves[:-10] or "SSSSS" in moves[:-10] or "PPPPP" in moves[:-10]:
            return win_map[moves[-1]]
        # Try just what wins against whatever they choose most
        return win_map[max("RPS", key=moves.count)]
    op_beats_my_honest = sum(win_map[me[0]] == op[1] for op, me in zip(op_hist, my_hist)) / float(len(op_hist))
    op_draws_my_honest = sum(me[0] == op[1] for op, me in zip(op_hist, my_hist)) / float(len(op_hist))
    op_loses_my_honest = sum(lose_map[me[0]] == op[1] for op, me in zip(op_hist, my_hist)) / float(len(op_hist))
    if op_honesty <= 0.4:
        return win_map[op_move]
    max_prob = max((op_loses_my_honest, op_draws_my_honest, op_beats_my_honest))
    if max_prob >= 0.6:
        if op_beats_my_honest == max_prob:
            return lose_map[my_move]
        if op_draws_my_honest == max_prob:
            return win_map[my_move]
        if op_loses_my_honest == max_prob:
            return my_move
        assert False
    return my_move

9

Rlbot: підкріплення навчання

Використовує підхід для підкріплення навчання, вирішуючи цю гру таким же чином, як проблема з бандитською зброєю. Це робиться двома способами: намагається дізнатися, яка декларація краще проти кожного противника, і дотримується цього (корисно проти постійних ботів), і намагається дізнатися результат різних кроків у попередніх подібних ситуаціях (аналогічно відносно відносних п'єс , наприклад, рок-папір схожий на попередній папір проти ножиць). Початкові припущення є оптимістичними, тому цей гравець буде вважати, що чесність дасть йому 3 бали, а брехня дасть 2, і тому завжди буде чесна, поки не доведеться інше.

Оновлення: Перші результати турніру підкреслили проблему з цим ботом, яка полягала в його нездатності виявляти шаблони в деклараціях опонентів (що змусило його грати неоптимально проти ротаторів). Потім я додав компонент відповідності шаблону до коду для чесних раундів, який використовує регулярний вираз для пошуку найдовшого суфікса в історії декларацій опонента, який є десь раніше в цій історії, і який хід був відтворений після цього . Ми припускаємо, що опонент знову відіграє той самий хід і використовує підкріплення, як і раніше, щоб вирішити, яка найкраща відповідь на це повинна бути.

import re
def rlbot(hismoves,mymoves,hismove,mymove):
 def score(d,m1,m2):
  s=0
  if m1==m2:
   s=1
  elif (m1+m2) in "RPSR":
   s=2
  return s+(d==m2)

 alpha=0.2
 if mymove:
  history=[([d1,m1],[d2,m2]) for ((d1,m1),(d2,m2)) in zip(hismoves,mymoves) if score(None,hismove,mymove)==score(None,d1,d2)]
  bestscore=-1
  bestmove=""
  for move in "RPS":
   ev=2+(move==mymove)
   for ((d1,m1),(d2,m2)) in history:
    if score(None,move,mymove)==score(None,m2,d2):
     ev=(1-alpha)*ev+alpha*score(d2,m1,m2)
   if ev>bestscore:
    bestscore=ev
    bestmove=move
  return bestmove

 else:
  if len(hismoves)==0:
   return "R"
  bestscore=-1
  bestmove=""
  hisdeclarations="".join(d for [d,m] in hismoves)
  predicted_move=re.search(r'(.*)\n.*\1(.)',hisdeclarations+'\n'+hisdeclarations).group(2)
  history=[([d1,m1],[d2,m2]) for ((d1,m1),(d2,m2)) in zip(hismoves,mymoves) if d1==predicted_move]
  for move in "RPS":
   ev=3
   for (his,my) in history:
    (d1,m1)=his
    (d2,m2)=my
    if d2==move:
     ev=(1-alpha)*ev+alpha*score(d2,m1,m2)
   if ev>bestscore:
    bestscore=ev
    bestmove=move
  return bestmove

Спробуйте в Інтернеті!


6

Я ніколи не використовував python так багато, тому впевнений, що десь помилився.

import random
def learningbot3(opponentlist,a,opponent,me):
 #tell the other bot a random thing
 if opponent==None:
  return random.choice(["R","P","S"])
 #check whether the other bot has mostly told the truth in the last 10 rounds
 truth=0
 for game in opponentlist[-10:]:
  truth-=1
  if game[0]==game[1]:
   truth+=2
 #assume the other bot will tell the truth
 if truth>=3:
  if me==opponent:
    return me
  elif opponent=="R":
   return "P"
  elif opponent=="P":
   return "S"
  elif opponent=="S":
   return "R"
 #assume the other bot is lying
 elif truth<=-3:
  return random.choice([me,opponent])
  #return opponent
 #pick whatever we said we would
 else:
  return me

Він повинен перевірити останні 10 раундів, щоб побачити, як часто брехав противник, а потім обрав іншу відповідь залежно від цього.


6

Ось мій адаптивний бот. Він аналізує останні 2 ходи опонента, щоб визначити, чи це чесний бот чи ні, і грає відповідно:

Редагувати 1: Якщо інший бот є постійним ботом (тобто завжди грає одну і ту ж зброю), цей бот розчавлює його, граючи в зброю-переможницю і одночасно будучи чесним.

Редагування 2: Покращений постійний детектор ботів для роботи з ротаторними ботами.

import random
def adaptive_bot(other_past, my_past, other_next, my_next):
    winners = {"R": "P", "P": "S", "S": "R"}
    if my_next is None:
        return winners[other_past[-6:][0][1]] if other_past else random.choice(list(winners.keys()))
    else:
        is_other_honest = all([other_claim == other_move for other_claim, other_move in other_past[-2:]])
        return winners[other_next] if is_other_honest else my_next

5

csbot

def csbot(ophist,myhist,opdecl,mydecl):

  import random

  RPS = "RPS"

  def value(opd,myd,opmove,mymove):
    if opmove==mymove:
      val = 9
    elif opmove+mymove in RPS+RPS:
      val = 20
    else:
      val = -2
    return val+10*(myd==mymove)-(opd==opmove)

  def best(od,md):
    l = float(len(ophist))
    weights = dict([ (m, random.random()/8) for m in RPS ])
    for n in range(len(ophist)):
      if ophist[n][0]==od and myhist[n][0]==md:
        weights[ophist[n][1]] += 1+4*((n+1)/l)**2
    sw = sum([ weights[m] for m in RPS ])
    bestexpect = 0
    for m in RPS:
      expect = sum([ weights[om]/sw*value(od,md,om,m) for om in RPS ])
      if expect > bestexpect:
        bestexpect = expect
        bestmove = m
    return bestmove, bestexpect


  honest = all ([ decl==mv for decl, mv in ophist ])

  if honest:
    if mydecl<>None:
      return mydecl
    expnxt = set();
    for i in range(len(ophist)-1):
      if ophist[i][0]==ophist[-1][0]:
        expnxt.add(ophist[i+1][0])
    if len(expnxt)==1:
      return RPS[ (RPS.index(expnxt.pop())+1) % 3 ]

  if mydecl==None:
    l = float(len(ophist))
    weights = dict([ (m, random.random()) for m in RPS ])
    for n in range(len(ophist)):
      weights[ophist[n][0]] += 1+((n+1)/l)**2
    sw = sum([ weights[m] for m in RPS ])
    bestexpect = 0
    worstexpect = 99
    for m in RPS:
      expect = sum([ best(od,m)[1]/sw*weights[od] for od in RPS ])
      if expect > bestexpect:
        bestexpect = expect
        bestmove = m
      if expect < worstexpect:
        worstexpect = expect
    if bestexpect-worstexpect < 3:
      bestmove = random.choice(RPS)
    return bestmove

  return best(opdecl,mydecl)[0]

Будьте чесні, доки інший гравець, і виявляйте прості детерміновані боти. Відіграйте хід, який максимізує очікуване значення, де ми в основному йдемо за нашими очками, але також любимо не давати очок іншому гравцеві. Але власні бали краще на десять, звідси незвичні числа у valueфункції. Хід супротивника очікується залежно від того, як часто ми бачили їх раніше в цій ситуації (оголошені рухи), але останнім часом помічені рухи мають більшу вагу, ніж рухи, помічені раніше. Для випадкових початкових ходів (ситуацій, які раніше ніколи не зустрічалися) та деякої додаткової нечіткості, ваги включають невеликі додаткові випадкові числа.

Оновлення: використовуйте очікувані результати також у чесному раунді. Щоб мати змогу це зробити, нормалізувати та врахувати додатковий бал, який опонент може отримати за чесність - це не могло вплинути на наше рішення у реальному раунді, але це потрібно зараз. Я думав робити це з самого початку, але помилково вважав, що це не варто. Я бачив, що можна буде надати trusting_botменше очок (але той бот все одно не є сильним опонентом), але пропустив, що додаткові очки можна отримати rockbotза рахунок доброї гри у чесному раунді, навіть якщо його гра в цьому раунді є випадковою.


Це не завжди, здається, повертає результат.
user1502040

Я думаю, що ваша if mydecl == None:помилка.
user1502040

@ user1502040 Чому ви так вважаєте? Я ніколи не спостерігав жодної проблеми.
Крістіан Сіверс


4

Зрада

def betrayal(yours, mine, you ,me):
    import random
    if you is None:
        pick = random.choice(['R','P','S'])
    else:
        you = you[0]
        me = me[0]
        if len(yours) < 50: #Build myself a reputation of honesty
            pick = me
        else:
            if len(yours) >= 50 and len(yours) < 100:
                honesty = sum([1 if y[0]==y[1] else 0 for y in yours])/float(len(yours))
                if honesty <= 0.5: #If dishonest try to outwit
                    pick = 'S' if me=='R' else 'R' if me == 'P' else 'P'
                else: #Else just plain cheat
                    pick = 'P' if you=='R' else 'R' if you=='S' else 'S'
            elif len(yours) >= 100: #When dishonest moves outweight honest moves, change tactics...
                honesty = sum([1 if y[0]==y[1] else 0 for y in yours[50:]])/float(len(yours[50:]))
                if honesty <= 0.5: #... and just play according to most likely pick
                    what_did_you_do = [k[1] for k in yours if k[1]!=k[0]]
                    index = [i for i,k in enumerate(yours) if k[1]!=k[0]]
                    what_i_said_i_ll_do = [k[0] for i,k in enumerate(mine) if i in index]
                    matches = zip(what_i_said_i_ll_do, what_did_you_do)
                    what_you_might_answer = [k[1] for k in matches if k[0]==me]
                    table = [len([k for k in what_you_might_answer if k=='R']),len([k for k in what_you_might_answer if k=='P']),len([k for k in what_you_might_answer if k=='S'])]
                    maybe_your_pick = ['R','P','S'][table.index(max(table))]
                    pick = 'P' if maybe_your_pick=='R' else 'R' if maybe_your_pick=='S' else 'S'
                else:
                    pick = 'P' if you=='R' else 'R' if you=='S' else 'S'
    return pick

Ідея полягає в тому, що перші 50 рухів я граю чесно, а потім, коли я заманив опонента на думку, я чесний, граю нечесно, намагаючись грати, що протидіє тому, що гратиме опонент (виходячи з того, був він чесним чи нечесним в минулому). Коли я досягаю точки, в якій я грав так само часто чесно, ніж нечесно, я змінюю тактику і вибираю найбільш ймовірний хід опонента на основі попередніх відомих конфігурацій.


3
import random
def honestrandom(a, b, c, move):
    if move == None:
        return random.choice(["R","P","S"])
    return move

3

Назва бота: Я пам'ятаю, як ти брешеш

import random

#Bot Name: I Remember How You Lie
def irememberhowyoulie(opponentlist, mylist, opponentmove, mymove):
    random.seed()

    wintable = {
                "R": {"R": 1, "P": 0, "S": 2},
                "P": {"R": 2, "P": 1, "S": 0},
                "S": {"R": 0, "P": 2, "S": 1}
               }

    winprob = {
               "R": {"R": 0.0, "P": 0.0, "S": 0.0},
               "P": {"R": 0.0, "P": 0.0, "S": 0.0},
               "S": {"R": 0.0, "P": 0.0, "S": 0.0}
              }

    totalprob = {"R": 0, "P": 0, "S": 0}

    # Calculate the probability that the opponent will lie base on the probability that it lied in the last 15 ~ 25 rounds
    # And calculate the probability that what the bot will show next
    picklength = min(random.randint(15, 25), len(opponentlist))
    lying, tempsum = 0, 0.0
    pickedup = {"R": 0, "P": 0, "S": 0}
    if picklength == 0:
        lying = 0.5
    else:
        for eachround in opponentlist[-picklength:]:
            pickedup[eachround[1]] += 1
            if eachround[0] != eachround[1]:
                lying += 1
        lying = lying * 1.0 / picklength
    for s in pickedup:
        pickedup[s] = 1.0 / (1 + pickedup[s])
        tempsum += pickedup[s]

    #Honest Round
    if opponentmove is None and mymove is None:
        a = random.random() * tempsum
        if a < pickedup["R"]:
            return "R"
        elif a < pickedup["R"] + pickedup["P"]:
            return "P"
        else:
            return "S"

    #Real Round
    else:                
        for me in winprob:
            ishonest = 0
            if me == mymove:
                ishonest = 1
            for op in winprob[me]:
                if op == opponentmove:
                    winprob[me][op] = (wintable[me][op] + ishonest) * (1 - lying)
                else:
                    winprob[me][op] = (wintable[me][op] + ishonest) * lying * pickedup[op] / (tempsum - pickedup[opponentmove])
                totalprob[me] += winprob[me][op]

        optimalmove, optimalvalue = "R", -9999999.0
        for me in totalprob:
            if totalprob[me] > optimalvalue:
                optimalmove, optimalvalue = me, totalprob[me]
        return optimalmove

Тестували протягом декількох 100-ти турів, і виявилося, що переможець набирає в середньому близько 220. Досить чесно, я думаю;)

Перший раз, коли я брав участь у викликах KOTH, тому я думаю, що ще є можливість для вдосконалення


3

Синиця для Тат

Класичний учасник Аксельродія: сподіваючись, але дрібний; простий, але надійний. Це не дилема в'язня, і я не робив спроб передбачити рух суперника, тому я дуже сумніваюся, що він буде справді конкурентоспроможним. Але "співпраця" все ж приносить найбільшу кількість балів для учасників, тому я думаю, що це буде принаймні середньо.

import random
def tit4tat(opphist, myhist, oppfut, myfut):
    if (not myfut): return random.choice(['R','P','S'])
    if (not opphist) or opphist[-1][0]==opphist[-1][1]: return myfut
    return random.choice(['R','P','S'])

3

Дві третини

Використовує стратегію, яку Пітер Тейлор згадував у «Пісочниці» та в цьому коментарі .

Він використовує рівновагу Неша .

import random

def two_thirds(h_opp, h_me, opp, me):

    def result(opp, me):
        if opp==me: return 0
        if opp=="R" and me=="S" or opp=="S" and me=="P" or opp=="P" and me=="R": return -1
        return 1

    moves = {"R", "P", "S"}
    honest = (opp == None)
    if honest:
        return random.choice(list(moves))
    else:
        res = result(opp, me)
        if res==-1:
            counter = list(moves - {opp, me})[0]
            return random.choice([me,counter,counter])
        if res==1:
            return random.choice([me,me,opp])
        return me

Це помилки для мене. По рядку 13 поверніться random.choice (рухається). Я думаю, це, мабуть, тому, що ви використовуєте .choice у словнику. Поки це не виправлено, я боюся, що це повідомлення недійсне.
Грифон - Відновіть Моніку

@Gryphon Це не словник, це набір.
LyricLy

Ах, вибачте. Я щойно бачив стиглі дужки і думав "словник". Моє ліжко. Будь-яка ідея, чому на цьому рядку помиляється random.choice?
Грифон - Відновіть Моніку

@Gryphon Здається, що random.choiceпокладається на вибір випадкового числа індексу та повернення об'єкта у списку за цим індексом. Оскільки набори не мають замовлення, вони також не підтримують індексацію і, отже, не працюють random.choice. Простим виправленням цього було б передати набір до списку перед викликом random.choice.
LyricLy

Ага. У мене на цьому комп’ютері немає пітона, тому я зараз не можу виправити це, але я зафіксую це у своєму коді, коли повернусь додому. Якби @ mbomb007 вирішив би це, це було б чудово.
Грифон - Відновіть Моніку

3

Глибока думка

def check_not_loose_bot(opHist, myHist):
    not_loose_points = 0
    for i in range(0, len(opHist)):
        if opHist[i][1] == opHist[i][0] or myHist[i][0] == win_map[opHist[i][0]] and opHist[i][1] == win_map[myHist[i][0]]:
            not_loose_points += 1
    not_loose_percent = float(not_loose_points) / len(opHist)
    if not_loose_percent > 0.9:
    #    print("is not willing to loose")
        return True
    return False

def check_trick_bot(opHist, myHist):
    trick_points = 0
    for i in range(0, len(opHist)):
        if opHist[i][1] == win_map[myHist[i][0]]:
            trick_points += 1
    trick_percent = float(trick_points) / len(opHist)
    if trick_percent > 0.9:
  #      print("is tricking me")
        return True
    return False

def check_honest_bot(opHist):
  #  print("check honest")
    honest_points = 0
    for i in range(0, len(opHist)):
        if opHist[i][0] == opHist[i][1] :
            honest_points += 1
    honest_percent = float(honest_points) / len(opHist)
    if honest_percent > 0.9:
    #    print("is honest")
        return True
    return False

def check_self_match(opHist, myHist):
    for i in range(0, len(myHist)):
        if opHist[i][0] != myHist[i][0]:
            # im not playing against myself, because the other one was claiming a different value than i did
#            print("differ: "+str(opHist)+", "+str(myHist))
            return False
        if opHist[i][1] != opHist[i][0]:
#            print("lie")
            # im not playing against myself, because the other bot wasn't honest (and i'm always honest as long as i think i play against myself)
            return False
    return True

def check_equal(move1, move2, fullCheck): # WARNING: FOR COMPABILITY THIS IS RETURNING NEQ INSTEAD OF EQ
    if fullCheck:
        return move1 != move2
    else:
        return move1[0] != move2[0] #only check claims

def is_pattern(opHist, pattern_start, prob_pattern_start, pattern_length, full_check):
    for i in range(0, pattern_length-1):
        if check_equal(opHist[pattern_start + i] , opHist[prob_pattern_start + i], full_check):
            return False
    return True

win_map = {"R": "P", "P": "S", "S": "R"}
def deterministic_best_guess(opHist, full_check = True):
    size = 0
    random_result = random.choice(["R", "P", "S"])
    for pattern_length in range(2, (len(opHist)+1)/2): #a pattern has to occur at least twice
        for pattern_start in range(0, len(opHist) - 2 * pattern_length):
            if not is_pattern(opHist, pattern_start, len(opHist) - pattern_length + 1, pattern_length, full_check):
                 continue
            is_repeated = False
            is_fooled = False
            for repeated_pattern_start in range(pattern_start + pattern_length, len(opHist) - pattern_length):
                if not is_pattern(opHist, pattern_start, repeated_pattern_start, pattern_length, full_check):
                     continue
                is_repeated = True
                if check_equal(opHist[pattern_start + pattern_length - 1], opHist[repeated_pattern_start + pattern_length - 1], full_check):
                    is_fooled = True
                    break
    #            print("pattern found: " + str(opHist[pattern_start : pattern_start + pattern_length]) +" at "+str(pattern_start)+" and "+str(repeated_pattern_start))
   #             print("check: "+str(opHist))
            if is_fooled or not is_repeated:
                break
            #we have found a deterministic best guess
  #          print("most likely next step: "+ str(opHist[pattern_start + pattern_length - 1]))
            if full_check:
                return win_map[opHist[pattern_start + pattern_length - 1][1]], True
            return win_map[opHist[pattern_start + pattern_length - 1][0]], True # if we don't have a full check, the pattern only applies to claims. So pretend to win against the claimed result.

    #fallback
 #   print("fallback")
    return random_result, False

def DeepThought(opHist, myHist, opMove, myMove):
    if opMove == None:
    #claiming phase
        if len(myHist) == 0:
        #seed random to be able to be deterministic when chosing randomly
            #The seed is secret (kind of)
            random.seed(133427)
        else:
            #seed random according to my previous claims
            seed = 133427
            for i in range(0, len(myHist)):
                if myHist[i][0] == "R":
                    seed = seed*3+1
                elif myHist[i][0] == "S":
                    seed = seed*7+1
                elif myHist[i][0] == "P":
                    seed = seed*11+1
                while seed%2 == 0:
                    seed /= 2
            random.seed(seed)
        if check_self_match(opHist, myHist):
            #claim a random value, will happen in the first round or in a self-match
            result = random.choice(["R", "P", "S"])
            return result
      #  print("differ detected")
        if check_trick_bot(opHist, myHist) and len(myHist) > 10:
            # i play against a trick bot. I can reduce its points by trieing to guess its claim, and force him to lie
            result, sure = deterministic_best_guess(opHist, False)
        else:
            result, sure = deterministic_best_guess(opHist)
        random.seed(0)
        return result
    if check_self_match(opHist, myHist):
        #i play against myself, i can only hope for a honest draw, so do that
        return myMove
#    print("no self-math")
    #dbg needs a valid seed, so provide it
    random.seed(133427)
    result, sure = deterministic_best_guess(opHist)
    if sure:
        #i'm sure i play against a deterministic bot. I'll be honestly winning. YEY.
        return myMove
    if check_honest_bot(opHist) and len(opHist) > 10:
        #i play against an honest bot. I'll accept a draw, but i will not accept a loss
        if win_map[myMove] == opMove:
            return win_map[opMove]
        return myMove
    if check_trick_bot(opHist, myHist) and len(opHist) > 10:
        #i play against a tricking bot. He'll make me either loose honestly (1 Pnt) or i have to be dishonest (2 Pnt). So let's lie.
        return win_map[win_map[myMove]]
    if check_not_loose_bot(opHist, myHist) and len(opHist) > 10:
        #i play against a bot thats not willing to loose. If it looks like i won, i can loose honestly (1Pnt, 2Pnt for him),
        #or i have to be dishonest (2 Pnt, 0 Pnt for him). So let's lie in that case.
        #If it looks like its a draw, i'll be honest (conservative way), and get my 2 : 2 Pnt.
        #If it lokks like i'll loose, I'll not accept it. I'll lie to win for 2 : 1 Pnt.
        if myMove == opMove:
            return myMove
        if myMove == win_map[opMove]:
            # He'll lie. So lie together and keep smiling.
            return opMove
        # I'll loose. NO!!!! Not gonna happen
        return win_map[opMove]
    return myMove

Лише кілька приміток до цього:

  • DeepThought любить думати. Багато. Мені дуже шкода, але я не знаю, як це виправити. Я звинувачую Пітона.
  • DeepThought намагається бути чесним. Beeing чесний надає вам один додатковий момент, який є таким же, як і очікуване значення для normal RPS
  • Але: DeepThought отримує в середньому навіть більше 2 балів за гру. Він використовує деяке виявлення, щоб знайти деякі звичні форми поведінки (наприклад, хитрість, чесне поводження тощо), і адаптується відповідно до цього.
  • DeepThought суто детермінований, тому він буде протистояти собі, тому що він завжди буде виконувати однакове рішення на обох кінцях.
  • Щоб точно не брехати проти себе, у нього є особливе виявлення, як і деякі інші боти тут. Це дуже агресивно, навіть якщо вважати, що це правда після одного раунду (і в першому раунді теж). В основному, доки супротивник рухається точно моє, я вважаю, що його дзеркальна відповідність.
  • Цікава частина (і частина, яка містить десятки помилкових позитивних результатів) - це перевірка детермінованого бота, тобто лише залежна від її власного результату. Ця перевірка шукає будь-яку схему розміру n, яка повторюється двічі, і це могло б описувати останні n-1 кроки, прогнозуючи претензію противника і рухатися заздалегідь. Ця частина займає певний час, на жаль.

Я новачок як у koth, так і в Python, тож скажи мені, чи я щось псував у цьому боті. Я не думаю, що це може перемогти посилене навчання (тому що я думаю, що воно вивчить мої рухи занадто швидко), але давайте спробуємо.

Мені подобається цей виклик, і якщо я знайду деякий час, я хотів би додати підхід до органічних обчислень (але, можливо, буде надто менший тиск на більш високі розміри). Чи дозволяється додавати кілька пропозицій? Або заборонено забороняти завантажувати головного бота, вставляючи деякі, які спрямовані лише на те, щоб втратити ваш основний?

РЕДАКТУВАННЯ: виправлений типовий код, який присвоїв мені особливість англійської мови


Не забороняється публікувати декілька записів, але забороняється публікувати записи, які підтримують інший бот (навіть той, який не є вашим власним). Добре програти іншому боту, доки це не задумом.
Грифон - Відновіть Моніку

Я отримав помилку при виконанні цього завдання, оскільки 32-й рядок вашої функції DeepThought return resultвимагає додаткового відступу. Я вважаю, що він повинен бути всередині гігантського, якщо заява буде негайно після, оскільки змінна returnоголошується лише в цьому операторі. Я вніс цю модифікацію в свій код, і тепер вона працює без помилок. Якщо ви не заперечуєте, щоб змінити тут, це було б чудово.
Грифон - Відновити Моніку

3
Ви, здається, псуєтесь із станом глобального випадкового генератора, що, мабуть, не нормально. Я вважав робити подібну річ, і знайшов це рішення: створити новий випадковий об'єкт R=random.Random(seed)і використовувати його як це: R.choice(...).
Крістіан Сіверс

@Gryphon виправлено. Ймовірно, деякі помилки, які траплялися при перетворенні з мого локального сценарію на se, де кожне доводиться закреслювати ще один час
Алекс Берн

1
@alexberne Ви можете вибрати вставлений код і натиснути {}кнопку на панелі інструментів, щоб автоматично відступити кожен рядок.
Сельчук

2
import random
def user5957401bot(a,b,c,d):
    if d == None: 
       return random.choice(["R","P","S"])
    else:
       return random.choice(["R","P","S",d])

2

have_we_been_here_before

Просто запитує "ми були тут раніше" і вибирає хід, який би дав найкращий середній результат у будь-яких подібних попередніх іграх.

Редагувати: Клуб чесності. Я додав невеликий блок коду, тому що інший бот (масон) зробив надзвичайно добре, створивши секретний клуб із самим собою. Зауважте, однак, що чесна гра проти чесних противників має в середньому абсолютно однаковий окуп, коли граєте проти себе, і, можливо, існують і ширші взаємні вигоди?

Edit2: На момент написання обох ботів попереду мене обидва експлуатують ротатори, тож я збираюся додати ще один блок коду для того, щоб перейти на цю смугу. Я думаю, що мій код повинен здатися досить старої школою - дотримуючись знайомих конструкцій, знайдених у будь-якій мові програмування, оскільки я дійсно не знаю Python.

import random

def have_we_been_here_before(opponentList, myList, opponent, me):

    def win(x):
        if x=="R": return "P"
        elif x=="P": return "S"
        elif x=="S": return "R"

    def calc_score(r1, r2):
        if r1==r2: return 1
        elif r1==win(r2): return 2
        else: return 0

    def have_we(opponentList, myList, opponent, me, me2):
        score, count = 0, 0
        for n in range(len(opponentList)):
            if (opponent == opponentList[n][0] and me == myList[n][0]):
                score += calc_score(me2, opponentList[n][1])
                count += 1
        if count == 0: return 0
        else: return float(score) / float(count)

    if opponent == None:

        # exploit rotators
        if len(opponentList) >= 3:
            rotator = True

            for n in range(3, len(opponentList)):
                if opponentList[n][1] != opponentList[n % 3][1]:
                    rotator = False
                    break

            if rotator: return win(opponentList[len(opponentList) % 3][1])

        if len(opponentList) == 0:
            return random.choice(["R", "P", "S"])
        else:
            # crude attempt to exploit the house bots
            prev = random.choice(opponentList)[1]
            return win(prev)

    # Play honestly if opponent has played honestly so far
    honest = True
    for oppMove in opponentList:
        if (oppMove[0] != oppMove[1]):
            honest = False
            break

    if honest: return me
    # Done playing honestly

    # Have we been here before?
    rock = have_we(opponentList, myList, opponent, me, "R")
    paper = have_we(opponentList, myList, opponent, me, "P")
    sissors = have_we(opponentList, myList, opponent, me, "S")

    if rock > paper and rock > sissors: return "R"
    elif paper > rock and paper > sissors: return "P"
    elif sissors > paper and sissors > rock: return "S"
    else: return win(opponent)

2

THEbot: Чесний експлуататор

import random 
def thebot(ho,hm,om,mm):
    hands = {"R": "P", "P": "S", "S": "R"}
    if om == None:
        if (len(set([i[0] for i in ho])) < 3) and (len(ho) > 2):
            return hands[random.choice(list(set([i[0] for i in ho])))]
        else:
            return random.choice(["R","P","S"])
    else:
        if sum(1 for i in ho if i[0]==i[1]) > (len(ho)/3):
            if om == mm:
                return om
            else:
                return hands[om]
        else:
            return mm

Я щойно зрозумів, що спростував помилковий клік, вибачте. Скасується під час редагування. (Неможливо змінити його іншим способом.)
Крістіан Сіверс

@ChristianSievers редаговано
Cinaski

@ChristianSievers дякую!
Сінаскі

2

Томпсон

import math
import random

moves = list(range(3))
names = "RPS"
from_name = dict(zip(names, moves))
to_name = dict(zip(moves, names))

#Payoff matrices given each relationship between honest moves.
A = [
    [[2, 1, 3], [2, 1, 0], [0, 2, 1]],
    [[1, 3, 2], [1, 0, 2], [2, 1, 0]],
    [[3, 2, 1], [0, 2, 1], [1, 0, 2]]
]

#Add a 1.2% penalty for the opponent's score (idea shamelessly stolen from csbot).
for d_h in range(3):
    for i in range(3):
        for j in range(3):
            A[d_h][i][j] -= 0.012 * A[[0, 2, 1][d_h]][j][i]

third = 1. / 3
two_thirds = 2 * third

nash_prior = [
    [[1, 0, 0], [two_thirds, 0, third], [third, 0, two_thirds]], 
    [[third, 0, two_thirds], [1, 0, 0], [two_thirds, 0, third]], 
    [[two_thirds, 0, third], [third, 0, two_thirds], [1, 0, 0]]
]

def mult_m_v(M, v):
    w = [0 for _ in v]
    for i, M_i in enumerate(M):
        for M_ij, v_j in zip(M_i, v):
            w[i] += M_ij * v_j
    return w

def mean_belief(counts):
    c = 1. / sum(counts)
    return [n * c for n in counts]

def sample_belief(counts):
    return mean_belief([random.gammavariate(n, 1) for n in counts])

def thompson(h_opp, h_me, opp, me):

    #Prior rationality of opponent.
    a = 0.95

    #Confidence in priors.
    n0_h = 0.5
    n0_m = 0.5

    def v(x):
        return [x for _ in range(3)]

    h_p = [v(n0_h * third) for _ in range(3)]

    m_p0 = [v(None) for _ in range(3)]
    m_p1 = [v(None) for _ in range(3)]

    #Expected prior is a mixture between nash equilibrium and uniform distribution.
    for h_i in range(3):
        for h_j in range(3):
            m_p0[h_i][h_j] = [n0_m * (a * nash + (1 - a) * third) for nash in nash_prior[h_i][h_j]] 

    for d_j_prev in range(3):
        for d_ij in range(3):
            m_p1[d_j_prev][d_ij] = list(m_p0[0][d_ij])

    #Track whether it's better to model the real moves based on the exact honest moves or
    #just the relationship between honest moves together with the opponent's defection strategy in the previous round.
    log_mp0 = 0
    log_mp1 = 0

    #Identify myself and always cooperate.
    is_me = True

    for (t, ((h_i, m_i), (h_j, m_j))) in enumerate(zip(h_me, h_opp)):

        h_i, m_i, h_j, m_j = from_name[h_i], from_name[m_i], from_name[h_j], from_name[m_j]

        d_j = (m_j - h_j) % 3
        d_ij = (h_j - h_i) % 3

        if t:
            h_j_prev = from_name[h_opp[t - 1][0]]
            m_j_prev = from_name[h_opp[t - 1][1]]
            h_p[h_j_prev][h_j] += 1

            d_j_prev = (m_j_prev - h_j_prev) % 3

            log_mp0 += math.log(m_p0[h_i][h_j][d_j] / sum(m_p0[h_i][h_j]))
            log_mp1 += math.log(m_p1[d_j_prev][d_ij][d_j] / sum(m_p1[d_j_prev][d_ij]))

            m_p1[d_j_prev][d_ij][d_j] += 1

        m_p0[h_i][h_j][d_j] += 1

        if is_me and ((h_i != h_j) or (h_j != m_j)):
            is_me = False

    if is_me:
        random.seed(len(h_me) + 1337)
        me_next = random.randrange(3)

    log_ps = [log_mp0, log_mp1]
    log_p_max = max(log_ps)
    ps = [math.exp(log_p - log_p_max) for log_p in log_ps]
    p0 = ps[0] / sum(ps)

    #We have to blend between the predictions of our 2 models for the real rounds.  

    def sample_expectation(h_i, h_j, d_j_prev=None):
        d_ij = (h_j - h_i) % 3
        if d_j_prev is None or random.random() < p0:
            p = m_p0[h_i][h_j]
        else:
            p = m_p1[d_j_prev][d_ij]
        return mult_m_v(A[d_ij], sample_belief(p))

    def take_expectation(h_i, h_j, d_j_prev=None):
        d_ij = (h_j - h_i) % 3
        e0 = mult_m_v(A[d_ij], mean_belief(m_p0[h_i][h_j]))
        if d_j_prev is None:
            return e0
        e1 = mult_m_v(A[d_ij], mean_belief(m_p1[d_j_prev][d_ij]))
        return [p0 * e0i + (1 - p0) * e1i for e0i, e1i in zip(e0, e1)]

    #We use thompson sampling, selecting the optimal deterministic strategy
    #with respect to a random opponent sampled from the posterior.

    #Actually, we use optimistic thompson sampling which clips samples to have >= than the mean expected value.

    if opp == None:
        #For the honest round we perform a lookahead to the real round to choose our strategy.
        if h_opp:
            if is_me:
                return to_name[me_next]
            h_j_prev = from_name[h_opp[-1][0]]
            m_j_prev = from_name[h_opp[-1][1]]
            d_j_prev = (m_j_prev - h_j_prev) % 3
            h_p_s = sample_belief(h_p[h_j_prev])
            h_p_u = mean_belief(h_p[h_j_prev])
            s_i = [0] * 3
            s_i_u = [0] * 3
            for h_i in range(3):
                for h_j in range(3):
                    s_i[h_i] += h_p_s[h_j] * max(sample_expectation(h_i, h_j, d_j_prev))
                    s_i_u[h_i] += h_p_u[h_j] * max(take_expectation(h_i, h_j, d_j_prev))
                s_i[h_i] = max(s_i[h_i], s_i_u[h_i])
            return to_name[s_i.index(max(s_i))]
        else:
            return to_name[me_next]
    else:
        if h_opp:
            if is_me:
                return me
            h_j_prev = from_name[h_opp[-1][0]]
            m_j_prev = from_name[h_opp[-1][1]]
            d_j_prev = (m_j_prev - h_j_prev) % 3
        else:
            if opp == me:
                return me
            d_j_prev = None
        h_i, h_j = from_name[me], from_name[opp]
        s_i = [max(s0, s1) for s0, s1 in zip(sample_expectation(h_i, h_j, d_j_prev), take_expectation(h_i, h_j, d_j_prev))]
        return to_name[(h_i + s_i.index(max(s_i))) % 3]

Цікавий запис. Я запускаю його незабаром, повинен мати можливість опублікувати результати сьогодні вдень.
Грифон - Відновіть Моніку

Добре, я трохи повернув параметри.
user1502040

Зрозумів. Вибачте, що так довго потрібно оновлюватись, це просто, кожен раз, коли це вже закінчено, хтось оновлює свого бота, або я отримую новий, і мені доведеться запустити його знову.
Грифон - Відновіть Моніку

@Gryphon ви могли б зберігати таблицю результатів усіх пар, тому коли бот оновлюється, вам потрібно буде виконати лише 200 * (num_bots - 1) + 100 нових матчів.
user1502040

2

зеркало

import random

def mirrorbot(op_hist, my_hist, op_move, my_move):
    if my_move == None :
        return random.choice(["R","P","S"])
    else :
        for x in range(len(op_hist)):
            if ((op_hist[len(op_hist) -x-1][0] == my_move) and (my_hist[len(op_hist) -x-1][0] == op_move)):
                return op_hist[len(op_hist) -x-1][1]
        return my_move

Я спробую простий бот, який повторив останню гру свого опонента в цих умовах


Ласкаво просимо до PPCG!
Мартін Ендер

1
def rotate_rock(h1, h2, is_, honest):
 return ("R", "P", "S")[len(h1) % 3]

def rotate_paper(h1, h2, is_, honest):
 return ("P", "S", "R")[len(h1) % 3]

def rotate_scissors(h1, h2, is_, honest):
 return ("S", "R", "P")[len(h1) % 3]

Ідея тут полягає в тому, щоб збільшити кількість балів під час гри у себе, залишаючись при цьому випадково конкурентоспроможними на інших етапах проти інших поганих ботів.


1
Слово is- це ключове слово, тому це недійсне.
Ерік Аутгольфер

@EriktheOutgolfer дякую :)
Стівен

1

Dx

Я лише написав цього бота, щоб я міг мати смайлик у своєму імені бота xD.

def Dx(ophist, myhist, opmove, mymove):
    from random import choice
    import math
    def honest(hist):
        return [int(x[0]==x[1]) for x in hist]

    def avg(arr):
        if len(arr)==0:
            return 0
        return sum(arr)/float(len(arr))

    def clamp(i, lo, hi):
        return min(hi, max(lo, i))

    def deltas(arr):
        return [a-b for a,b in zip(arr[1:],arr[:-1])]

    def delta_based_prediction(arr,l):
        deltarr = []
        i=0
        while len(arr)<0:
            deltarr[i]=avg(arr[-l:])
            i+=1
            arr = deltas(arr)
        return sum(deltarr)

    next_honesty = delta_based_prediction(honest(ophist),int(math.sqrt(len(ophist))))
    if abs(next_honesty-0.5)<0.1 or not opmove:
        return choice(['R','P','S'])
    next_honesty=int(clamp(round(next_honesty),0,1))
    winner = {'S': 'R', 'R': 'P', 'P': 'S'}

    if next_honesty > 0:
        return winner[opmove]

    return choice([opmove, winner[winner[opmove]]])

1

Усі брешуть

import random

def everybodylies (opphist, myhist, oppmove, mymove):
    if mymove == None:
        return random.choice(["R","P","S"])
    elif mymove == "R": return "S"
    elif mymove == "P": return "R"
    elif mymove == "S": return "P"

Це брехня про його хід ("я буду грати в ножиці!"), І припускає, що опонент також бреше, і що вони намагатимуться перемогти те, що я сказав, що мій хід буде ("гм, рок б'є ножиці, тому я граю що "), але я насправді відтворюю той крок, який перемагає цей хід (" Папір! Сюрприз! ").


3
Мені звучить як перший рівень стратегії йокаїнового порошку :-) "Тепер розумний чоловік вклав би отруту у свій кубок, бо знав би, що тільки великий дурень досягне того, що йому дано. Я не великий дурень, тож я точно не можу вибирати вино перед вами. Але ви, мабуть, знали, що я не великий дурень, ви б на це порахували, тож я точно не можу вибрати перед собою вино. . "
Антоній

1

Довіряючи Боту

def trusting_bot(h_opp, h_me, opp, me):
    if opp=="S":
        return "R"
    elif opp=="R":
        return "P"
    else:
        return "S"

Завжди вимагає кидати ножиці, але робитиме все, що б'є, що сказав противник. Надійно малюватиме з собою.


Це було б ефективніше, якби воно завжди було чесним проти себе.
Грифон - Відновіть Моніку

@Gryphon Напевно, але я не пітон досить добре, щоб хочу спробувати зробити щось, що співпрацює так.
Атако

Неважливо, тоді.
Грифон - Відновіть Моніку

1

Назва бота: Брехун брехун

Не можу перестати брехати.

import random

def liarliar (herHistory, myHistory, herMove, myMove):
    options = ["R", "P", "S"]
    if myMove == None:
        return random.choice(options)
    else:
        options.remove(myMove);
        return random.choice(options)

1

RockBot

Припускає, що опонент буде чесним і намагається їх перемогти, але відмовляється грати в рок.

import random
def rockBot(oppHist,myHist,oppMove,myMove):
    if oppMove == None:
        return random.choice(["R","P","S"])
    else:
        if(oppMove == "R"):
            return "P"
        elif(oppMove == "P"):
            return "S"
        elif(myMove != "R"):
            return myMove
        else:
            return random.choice(["P","S"])

1
Це здається помилкою, оскільки в останньому рядку "P", "S" не знаходиться у квадратних дужках (не в списку). Я змінив це у своїй версії, але якби ви могли зробити те саме тут, було б чудово. Дякую.
Грифон - Відновлення Моніки

Хіба це не жахливо втратить постійні ножиці?
Wildcard

@Wildcard так, але це буде дуже добре проти паперового бота
Slepz

1

Назва бота: dontlietome

Визначає, чи опонент лежить чи ні, залежно від того, скільки разів опонент брехав за останні 10 раундів. Вибирає хід залежно від того, лежить опонент чи ні. Якщо опонент налаштований брехати, то грає, яким був натяк.

import random
def dontlietome(opp_moves, my_moves, opp_hint, my_hint):
    def is_trustworthy(moves, length):
        length = max(-length, -len(moves))
        history = [1 if move[0] == move[1] else 0 for move in moves[length:]]
        prob_honest = float(sum(history))/float(len(history))
        choice = random.uniform(0., 1.)
        if choice <= prob_honest:
            return True
        else:
            return False

    moves = ["R", "P", "S"]
    lose_against_map = {"S":"R", "R":"P", "P":"S"}
    length = 10
    if opp_hint == None:
        # Honest round
        return random.choice(moves)
    else:
        # Real round
        if len(opp_moves) < length:
            return my_hint
        if is_trustworthy(opp_moves, length):
            return lose_against_map[opp_hint]
        else:
            return my_hint

У рядку "if is_trustworthy (opp_moves, self.length):", self не визначається. Крім того, у рядку "return lose_against_map [opp_hint]" "lose_against_map" також не визначено. Здається, що власна довжина вирішується шляхом видалення самості. але інша проблема все ще стоїть. Поки це не виправлено, я боюся, що це недійсно.
Грифон - Відновіть Моніку

На жаль, я написав це за допомогою Object, і я забув видалити кілька власних посилань і повністю скопіювати код. Я це виправлю, як тільки повернусь додому.
coolioasjulio

ГАРАЗД. Якщо це лише невелика помилка, я її виправляю (як я маю в деяких інших ботах, і мав би, якби це була лише проблема самозбереження), але відсутня функція - це інша історія.
Грифон - Відновити Моніку

@Gryphon Я виправив помилки. (вилучив власну lost_against_map
особу

0
import random
def trustingRandom(a,b,c,d):
  move = random.choice(["R","P","S"])
  if c == "R":
    move = "P"
  elif c == "P":
    move = "S"
  elif c == "S":
    move = "R"
  return move

0

Посередник

def averager(op, mp, od, md):
  import random
  if od == md == None:
    if op == mp == []:
      return random.choice('RPS')
    else:
      opa = [i[1] for i in op]
      copa = [opa.count(i) for i in 'RPS']
      copam = [i for i, j in zip('RPS', copa) if j == max(copa)]
      opd = [i[0] for i in op]
      copd = [opd.count(i) for i in 'RPS']
      copm = [i for i, j in zip('RPS', copd) if j == max(copd) and i in copam]
      return random.choice(copam if copm == [] else copm)
  else:
    if op == mp == []:
      return md
    else:
      hop = sum([1. if i[0] == i[1] else 0. for i in op]) / len(op)
      hmp = sum([1. if i[0] == i[1] else 0. for i in mp]) / len(mp)
      return 'PSR'['RPS'.index(od)] if hmp >= 0.75 and hop >= 0.50 else md

0

Просто трохи краще, ніж мій попередній запис ...

def learningbot4(yourlist,mylist,you,me):
  CHECK={"R":{"R":0,"P":1,"S":-1},"P":{"R":-1,"P":0,"S":1},"S":{"R":1,"P":-1,"S":0}}
  results={None:{"R":0,"P":0,"S":0},"R":{"R":0,"P":0,"S":0},"P":{"R":0,"P":0,"S":0},"S":{"R":0,"P":0,"S":0}}
  for i in range(len(yourlist)):
    res=CHECK[yourlist[i][1]][mylist[i][1]]
    if mylist[i][0]==mylist[i][1]: res+=0.5
    results[yourlist[i][0]][mylist[i][1]]+=res
    results[None][mylist[i][0]]+=res
  return max(results[you],key=results[you].get)

0

csbot на стероїди

Я думаю, що пропозицію, яку @ user1502040 робить у коментарях, слід дотримуватися. Інакше цей бот матиме перевагу, яку я вважаю несправедливою. Я подаю це так, щоб різницю, яку він робить, можна було оцінити. При запропонованому випадковому посіві стероїди будуть нейтралізовані, а бот був би еквівалентний csbot, тож у змаганнях повинен брати участь лише один.

from random import seed
from csbot import csbot

def csbot_on_steroids(ophist,myhist,opdecl,mydecl):
  seed()
  m = csbot(ophist,myhist,opdecl,mydecl)
  seed(0)
  return m
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.