TypeError: елемент послідовності 0: очікуваний рядок, знайдено int


188

Я намагаюся вставити дані зі словника в базу даних. Я хочу повторити значення і відформатувати їх відповідно до типу даних. Ось фрагмент коду, який я використовую:

def _db_inserts(dbinfo):
    try:
        rows = dbinfo['datarows']

        for row in rows:
            field_names = ",".join(["'{0}'".format(x) for x in row.keys()])
            value_list = row.values()

            for pos, value in enumerate(value_list):
                if isinstance(value, str):
                    value_list[pos] = "'{0}'".format(value)
                elif isinstance(value, datetime):
                    value_list[pos] = "'{0}'".format(value.strftime('%Y-%m-%d'))

            values = ",".join(value_list)

            sql = "INSERT INTO table_foobar ({0}) VALUES ({1})".format(field_names, values)

    except Exception as e:
        print 'BARFED with msg:',e

Коли я запускаю algo за допомогою деяких зразкових даних (див. Нижче), я отримую помилку:

TypeError: елемент послідовності 0: очікуваний рядок, знайдено int

Приклад даних value_list, який дає вищевказану помилку:

value_list = [377, -99999, -99999, 'f', -99999, -99999, -99999, 1108.0999999999999, 0, 'f', -99999, 0, 'f', -99999, 'f', -99999, 1108.0999999999999, -99999, 'f', -99999, 'f', -99999, 'f', 'f', 0, 1108.0999999999999, -99999, -99999, 'f', 'f', 'f', -99999, 'f', '1984-04-02', -99999, 'f', -99999, 'f', 1108.0999999999999] 

Що я роблю неправильно?


42
soulution для вас:values = ",".join(map(str, value_list))
ddzialak

Відповіді:


383

string.join з'єднує елементи всередині списку рядків, а не ints.

Використовуйте замість цього виразу генератора:

values = ','.join(str(v) for v in value_list)

32
Також можна використовувати.join(map(str, value_list))
BallpointBen

44

Хоча відповіді щодо розуміння списку / виразів генератора в порядку, я вважаю, що це легше читати та розуміти:

values = ','.join(map(str, value_list))

2
Любіть це використання карти та str. Я буду користуватися цією схемою вперед :)
Тимофі К. Квін

17

Замініть

values = ",".join(value_list)

з

values = ','.join([str(i) for i in value_list])

АБО

values = ','.join(str(value_list)[1:-1])

1
Ще один values = ','.join(str(value_list)[1:-1])
Priyank Patel

4
видалити [, ]з вашого другого прикладу, список розуміння не потрібно , і видаляючи їх у вас є генератор , який є більш ефективним.
jamylak

3
Насправді, як пояснено на stackoverflow.com/questions/9060653/… , використання списку замість генератора у str.join()методі швидше ...
dtheodor

12

Відповіді cval та Priyank Patel чудово працюють. Однак майте на увазі, що деякі значення можуть бути рядками Unicode і тому можуть спричинити помилку strкидання UnicodeEncodeError. У цьому випадку замініть функціюstr функцією unicode.

Наприклад, припустимо рядок Libië (голландська для Libya), представлений на Python як рядок unicode u'Libi\xeb' :

print str(u'Libi\xeb')

видає таку помилку:

Traceback (most recent call last):
  File "/Users/tomasz/Python/MA-CIW-Scriptie/RecreateTweets.py", line 21, in <module>
    print str(u'Libi\xeb')
UnicodeEncodeError: 'ascii' codec can't encode character u'\xeb' in position 4: ordinal not in range(128)

Наступний рядок не призведе до помилки:

print unicode(u'Libi\xeb') # prints Libië

Отже, замініть:

values = ','.join([str(i) for i in value_list])

від

values = ','.join([unicode(i) for i in value_list])

бути в безпеці.


1
Тут найкраще рішення! values ​​= ','. join ([unicode (i) для i в value_list]), що працює у випадку, якщо у вас є суміш цілих чисел та рядків із розширеними символами ascii.
mel

Більше не було проблем у Python3, str('\xeb')=>ë
Брайоні

0

Інтерполяція рядків - це хороший спосіб передачі у відформатований рядок.

values = ', '.join('$%s' % v for v in value_list)


0

ви можете перетворити цілий кадр даних спочатку в рядок, а потім виконати операцію, наприклад

df3['nID']=df3['nID'].astype(str)
grp = df3.groupby('userID')['nID'].aggregate(lambda x: '->'.join(tuple(x)))
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.